オープンソースOS界で先駆的な存在であるGentoo LinuxとNetBSDが、AI生成コードの投稿を禁止するポリシーを相次いで導入しました。両プロジェクトは「品質」「著作権」「倫理」の3つの懸念を理由として挙げており、オープンソースコミュニティにおけるAI利用の是非をめぐる議論が活発化しています。
Gentooは2024年4月にFOSS(フリー・オープンソースソフトウェア)OSプロジェクトとして初めてLLM生成コードを禁止しました。ポリシーでは「自然言語処理AIツールの支援を受けて作成されたコンテンツをGentooに投稿することは明確に禁止される」と規定されており、コード、ドキュメント、バグレポート、フォーラム投稿など、ChatGPTやGitHub Copilotを使用して作成されたすべてのコンテンツが対象となります。品質面については「これらのツールは極めて品質の低いコードを生成することが多い」と指摘しています。
NetBSDも同様のポリシーを導入し、「大規模言語モデルまたは類似技術によって生成されたコードは、汚染されたコードと推定され、事前の書面による承認なしにコミットしてはならない」と定めています。r/linuxでは「AIツールは禁止すべきだが、人間の監督下での使用は容認すべき」との議論が起きており、NetBSDの例外規定がその妥協点として注目されています。Hacker Newsでは「Debianはまだ追従していない」との指摘があり、主要ディストリビューション間での対応の違いが浮き彫りになっています。
Gentooのポリシーは、著作権・倫理・品質の懸念をクリアするツールが登場した場合には再検討される可能性があるとしています。AI支援コーディングツールの進化が続く中、オープンソースコミュニティがどのようにこの技術と向き合っていくかは、今後のソフトウェア開発の重要な論点となるでしょう。