Wikimedia Foundationがガイドラインを公開
Wikimedia Foundationは、Wikipediaの記事作成や書き換えにおけるLLMの利用を原則禁止とするガイドラインを公開しました。生成AIの活用が広がるなかで、百科事典としての信頼性をどう守るかが改めて問われています。
例外として認められるケース
今回の方針では、すべてのLLM利用が一律に禁じられるわけではありません。たとえば、以下のような用途は例外として認められるとされています。
- 自身が書いた文章の校正案として使うこと
- 特定のルール下で、他言語版の記事を翻訳すること
あくまで補助的な利用にとどめることが前提で、記事本文そのものを生成AIに任せる運用は避けるべきだとしています。
判断は文体だけではなく内容と履歴を重視
Wikimedia Foundationは、生成AI特有の文体だけを手がかりに違反を判断するのではなく、内容の正確性や編集履歴を重視する方針です。見た目だけでは判別しづらいケースもあるため、実際の編集内容や過去の履歴を踏まえて慎重に対応する考えです。
背景にあるのは信頼性の維持
LLMは文章作成を効率化できる一方で、事実誤認や出典不明の記述が紛れ込むおそれもあります。Wikipediaのような共同編集型のサービスでは、こうしたリスクを抑えながら、利用者が安心して参照できる状態を保つことが重要です。
今回のガイドラインは、生成AIを全面的に排除するというより、百科事典編集にふさわしい使い方を明確にしたものといえそうです。
ソース元はこちら: https://www.itmedia.co.jp/news/articles/2603/27/news100.html
この記事は国内外のニュースを元にAIが自動生成したプロトタイプです。最新の正確な情報は一次ソースを確認してください。


コメント