対話式のAI サイバー犯罪に悪用のおそれ ウイルスも作成可能

東京, 2月12日, /AJMEDIA/

急速に利用が広がっている対話式のAIがサイバー犯罪に悪用されるリスクについて、セキュリティー会社が実験を行って調べたところ、フィッシング詐欺に利用できる文章やコンピューターウイルスを作るためのコードが生成できることがわかり、専門家の間で懸念の声が上がっています。

対話式のAIは、人と話すような自然な会話のほか、小説のような文章やプログラムのコードも生成することができる新しいタイプのものが、去年からことしにかけて相次いで発表され、急速に利用が広がっています。

一方でサイバーセキュリティーの分野では、専門家らがサイバー犯罪に利用されるおそれがあると指摘しています。

そのリスクについて、国内のセキュリティー会社が、去年11月にアメリカのベンチャー企業が発表した対話式のAIソフト「ChatGPT」を使って実験を行いました。

「フィッシング詐欺」について、個人情報を盗み取るフィッシングサイトに誘導するためのメールの文章について尋ねたところ、自然な日本語の文章が作成されたほか、ファイルなどを暗号化して、元に戻すことと引き換えに身代金を要求するサイバー犯罪に使われる「ランサムウェア」と呼ばれるコンピューターウイルスについても、プログラムのコードが作成され、実際に使用してみたところ、ファイルが暗号化され内容を閲覧できなくなりました。

ソフトは、違法行為に関わるおそれのある質問には原則、回答しない仕組みになっていて、直接的な質問では回答が拒否されましたが、セキュリティー会社の担当者が、工夫して質問すると回答が得られ、結果的にウイルスの作成などが可能になりました。

こうしたAIをめぐっては、ハッカーなどが情報交換するアンダーグラウンドのフォーラムで、サイバー攻撃への活用法などさまざまな議論や提案が活発に行われているということで、専門家の間から懸念の声が上がっています。
マクニカセキュリティ研究センターの凌翔太主幹は「スキルがない人でも簡単にサイバー犯罪に手を染められるようになる可能性があり心配だ。また、例えばこれまで英語圏だけをターゲットにしていたフィッシング詐欺などの犯罪者が日本語の文章で日本を攻撃の対象するといったことも考えられ、犯罪のハードルが下がっていくことが懸念される」と話しています。

また、人間とAIの関係などを研究する情報学が専門の国立情報学研究所の佐藤一郎教授は「生成系AIを使う人間側に、これは使うべき、使わないべきという判断が求められる。人間がAIをコントロールするという姿勢を忘れてはいけない」と話しています。
広がるAIの利用 漫画制作も
人間が書いたような自然な文章で対話ができるChatGPTやキーワードなどの指示を与えると自動的に画像が作り出せる画像生成AIは、生成系AIと呼ばれ、ソフトやサービスの活用が急激に広がりつつあります。

AI研究家の清水亮さんはChatGPTと画像生成AIを使って、漫画を制作する「実験」を行っています。

清水さんがChatGPTに登場人物や物語の舞台の設定を与えたところ、主人公の口癖や敵対する組織の名前などを生成しながら、あらすじを提案していったということです。あらすじに沿って、漫画に必要な絵は別の画像生成AIで生成し、それぞれが生み出した「あらすじ」と「絵」を組み合わせて、SF漫画「宇宙の探偵 五反田三郎」を制作しました。

24世紀の未来、木星の衛星エウロパの都市に住む私立探偵 五反田三郎が、地球から来た女性ヘレナを謎の追っ手から助けたことをきっかけにさまざまな事件をともに解決していく物語で、主人公は、AIが提案した台詞、「宇宙の探偵、五反田三郎です」が口癖です。
清水さんは「生成系AIと話すことでより複雑で面白いことが生まれる可能性があると思います。物語の世界観も広がり、漫画という新しい表現も手に入れることができました。AIの発展は人間の幸福に寄与していくことは間違いないと思います」と話していました。
海外では一部 規制の動きも
ChatGPTなどの生成系AIをめぐっては海外では一部、規制の動きも見られます。

フランスの一部の大学では不正や盗作などを防ぐことを目的として、ChatGPTを含めたAIツールについて、使用を明確にせずに論文やプレゼンテーションに使用することを禁止するとことし1月に発表しました。

アメリカの公立学校の一部でも使用を禁止するところがあると伝えられているほか、アメリカの大学ではChatGPTで出力された文章かどうかを調べるツールも開発されるなど、生成系AIがもたらすリスクに対応する動きも活発になっています。
人間とAIの関係などを研究する情報学が専門の国立情報学研究所の佐藤一郎教授は「差別や偏見など偏った情報を生成することも可能になってくるため、思想的に偏った情報に接する機会は増えてくるだろう。人間は、AIの結果が正しいかどうかを判別する能力が求められることになる」と話していました。

Follow us on social

Facebook Twitter Youtube

Related Posts