Wednesday, February 27, 2019 9:07 AM

オープンAIの人工知能作文技術は危険すぎる?

 人工知能研究の非営利会社であるオープンAI(OpenAI)が開発した言語モデルをめぐって議論が起きている。高い文章生成能力が悪用される可能性を危惧した同社が言語モデルの完全版の公開に難色を示したことに対し、人工知能研究者らの一部が、研究成果を公開するという当初の約束に反すると主張して同社の方針を批判している。

 テッククランチ誌によると、オープンAIは、独自に開発した自然言語モデル「GPT-2」について、インターネット上にある40ギガバイトのテキスト見本のなかから、次の単語を予想できるよう訓練されている、と説明する。

 オープンAIによると、GPT-2を採用した文書作成システムは、「与えられた条件に応じた書式と内容」のテキストを生成(作文)でき、それによって利用者は「(特定の話題について)現実的かつ一貫したテキスト」を作成できるようになる。

 GPT-2は、ボットや音声認識機能の改良に役立つと期待される。同社が懸念するのは、それが偽ニュースの作成やなりすまし、ソーシャル・メディアでの攻撃的投稿、迷惑一斉書き込みといった悪意あるテキストの自動作成と発信に悪用される可能性だ。

 オープンAIはそのため、言語モデルの小型版のみを公開すると発表したものの、人工知能開発者コミュニティーはその方針を約束違反と非難した。ただ、人工知能が悪用される可能性を憂慮し、「新たな倫理基準」の設定を呼びかける声も同コミュニティーの一部から出ている。

 オープンAIは、完全版GPT-2の公開をめぐる最終判断をまだくだしておらず、6ヵ月以内に再検討する方針を示している。同社はそれと同時に、米政府に対し、「人工知能技術の社会的影響と普及を体系的に監視する対策構想の拡充または開始」の検討を求めた。

 米諜報機関では、国家安全保障上の「新たな脅威」の一つとして、量子電算と無人自動運転車とともに人工知能を挙げている。

https://techcrunch.com/2019/02/17/openai-text-generator-dangerous/