“AIリスク軽減は世界的優先課題”声明 権威ら350人以上が署名

東京, 6月1日, /AJMEDIA/

「ChatGPT」のほか、文章で指示を出すだけでオリジナルな画像を作成できるなど、生成AIの利用が広がる中、AIの権威ら350人以上が、AIのリスクを軽減することは核戦争などと同じく世界的な優先課題だとする声明に署名しました。みずからが開発したAI技術が人類に存亡の危機をもたらすおそれがあると警鐘を鳴らしています。

アメリカの非営利団体、AI安全センターは「AIによる人類滅亡のリスクを軽減することは、パンデミックや核戦争などと同様に世界的な優先課題だ」とする声明を出しました。

この声明は、オンラインで公開されていて、AIに携わる研究者や経営者など350人以上が署名しています。

中には、ChatGPTを開発したオープンAIのサム・アルトマンCEOや、ディープラーニングの中核となる技術を研究し、AIの危険性についてよりオープンに警告するためグーグルを退社したAIの世界的権威、ジェフリー・ヒントン博士も含まれていて、みずからが開発したAI技術が人類に存亡の危機をもたらすおそれがあると警鐘を鳴らしていることが特徴です。

声明を出したAI安全センターのダン・ヘンドリクス事務局長は、アメリカの有力紙、ニューヨーク・タイムズの取材に対し「業界の中でさえ、AIが人類の滅亡につながると考える人はわずかしかいないという誤解がある」と指摘し、実際にはAIが持つ潜在的な危険に対する懸念が高まっていると示唆しています。

Follow us on social

Facebook Twitter Youtube

Related Posts