キャサリン妃の画像加工 なぜイギリスで問題になったのか?

東京, 04月13日 /AJMEDIA/

幸せそうな「家族写真」

その“修正”をめぐり、イギリスメディアを始め、世界中で大きな議論になった。

いったい何が問題だったのか?

この画像を科学的に検証したイギリス公共放送BBCを取材すると、AIなど画像加工の技術が普及する中、「信頼できる情報」を見分けるためにどうすればいいか、メディアの模索が見えてきた。

母の日の家族写真が”加工”されていた
3月10日、イギリスで「母の日」とされるこの日に、イギリス王室が一枚の家族写真を公開した。
ウィリアム皇太子妃の妻、キャサリン妃が3人の子どもたちに囲まれ笑顔で映っていて、SNSには支援者への感謝のメッセージとともに掲載された。

ことし1月に手術を受けるなど健康状態が心配されていたキャサリン妃。

手術後初めて公の場に姿を見せたこともあり、イギリス国内のニュースでも取り上げられ話題となった。

ところが公開された直後、AP通信など複数の通信社がこの写真を使わないようにと発表した。

「写真が操作(加工)された可能性がある」というのが理由として書かれていて、この異例の対応にSNSなどではさまざまな臆測や疑念が広がる事態となった。

AP通信は使用停止を発表した記事のなかで「写真右側に写っているシャーロット王女の左手の袖の部分に不自然な点がみられる」と指摘していて、実際、その部分を拡大してみると袖口が透明になって消えているように見えた。

通信社の措置を受けて、キャサリン妃は翌日にSNSにコメントを掲載。

自身が写真を編集したことを認めたうえで「混乱を招いたことをおわびしたい」と謝罪した。

BBCが検証 加工が見つかる
家族写真の加工はどのように行われたのか。
画像データを詳細に検証して放送したイギリスの公共放送・BBCを訪ねた。

検証を行ったのは、去年立ち上がった調査報道チーム「BBCベリファイ」。

部署や専門性が異なる記者やエンジニアおよそ60人が、悪質なフェイクニュースやプロパガンダ、世界の事件・事故にまつわる調査報道を行っている。

通信社が写真を撤回したあと、すぐに検証を行ったジョシュア・チーデム記者が、まず注目したのは写真が作成・保存された日時などを示す「メタデータ」だった。

写真は複数回保存されていて、画像編集ソフトで保存された形跡も見つかった。

さらに「ノイズ分析」と呼ばれる、画像に含まれる特徴を強調して加工された痕跡を表示する手法で分析すると、王女の袖口を含めて少なくとも5か所で人為的に操作が行われた可能性が浮かび上がった。

シャーロット王女のひざのあたりを拡大すると、背景との境界がぼかされていて、背景の石との色が一致していていない部分が見つかった。

さらに、キャサリン妃の右手がぼやけていて、背景のセーターとの背景が明確になっていなかった。

ジョシュアさんは画像分析の専門家にも解析を依頼したが、補正や複数の写真を合成するなど、なんらかの加工が行われた可能性があるという結果だった。

一方で、なぜこのような加工が行われたのかについて、イギリス王室は公式に発表を行っていない。
いったい何が問題なのか?
では、この加工の何が問題で、イギリスでここまで大きく取り上げられているのか。

写真の配布を撤回したAP通信は、理由として次のように説明している。

(AP通信が公開した記事)
「私たちの編集基準では画像は正確でなければならないと定めています。真実を再現するために切り抜きや色の調整を行うことは許容されますが、写真の真実性は維持しなくてはいけない」

BBCのジョシュアさんが指摘したのは「情報の信頼性」の重要さだ。

ジョシュア・チーデム記者
「AIが急速に進化しているいま、その情報が真実かどうかを証明するのが難しくなればなるほど、人々は情報が真実であるかどうかに“無関心”になってしまう」

BBCベリファイのチームは「報道機関として視聴者や読者に提供する情報は、常に“真実”であることを、自分たちなりに検証することが不可欠で、そのためには検証のプロセスを含めて分かったことをすべて提示していくことが大事だ」と指摘している。

実際、この写真が加工されていたことで、実害を被った人がいるわけではない。

ただ、ニュースとなった直後に通信社が突如として配布を撤回したことで、SNSでは生成AIによるフェイク説やキャサリン妃の影武者説などさまざまな陰謀論が広がってしまった。

3月22日にキャサリン妃は自身ががんであることを公表し、メッセージ動画も公開したが、その後も健康状態をめぐる臆測やフェイクが広がっている。

ロシアのテロでも広がったフェイク動画
報道各社が「情報の信頼性」に神経をとがらせる背景には、急速に進化するAIを悪用したフェイクの広がりがある。

3月22日、140人以上の市民が犠牲となったモスクワ郊外で起きた無差別テロ。

過激派組織IS=イスラミックステートとつながりのある「アマーク通信」はISの戦闘員による犯行だと伝えているが、ロシアのプーチン政権はウクライナが事件に関与した疑いがあると主張している。

テロの発生からわずか数時間後、ロシアのテレビ局で放送されたのがこの動画だ。

ウクライナの高官(当時)がテロの直後に「きょうのモスクワは楽しいですか?今後もこのような機会を提供します」と話しているインタビュー動画だと紹介されていて、ウクライナ政権がテロに関与したことを示しているとテレビキャスターが主張した。

ところが、BBCベリファイが動画データを検証したところ、人工的につくられたフェイク動画であることが分かった。

動画サイトを調べると、インタビュー動画と同じ人物が映っている2つの動画が見つかり、それぞれテロが発生する前の日付で公開されていた。

ロシアのテレビ局のインタビュー動画は、この2つの動画を合成して作られたフェイクとみられている。

しかし、元の動画でウクライナ高官(当時)が話していた内容は、ロシアによるウクライナ侵攻の非人道性を非難するもので、ロシアのテレビ局が流していたことばを全く含まない別物だった。

BBCが音声工学の専門家に検証を依頼したところ、何らかの人為的な加工が行われている可能性はわかったものの、生成AIで再現された音声かどうかまでは判断できなかったという。

検証を行ったBBCベリファイのオルガ・ロビンソン記者は、生成AIを含めた技術の進歩によって、今後さらにメディアや情報の“信頼性”が問われていくと危機感を強めている。

オルガ・ロビンソン記者
「AIによるフェイクの進化は間違いなく脅威です。数年前にみたフェイクと比べてみても格段に巧妙になってきている。一方で、AIを使わない古い映像の使いまわしや簡単な編集で作られた偽情報がいまも大半を占めている。何が起きていて、どうやって確かめたのかを提示することで視聴者と信頼関係を築いていくことが大事」

フェイクを見抜くためには?
フェイクを見抜くために、AIを活用できないか。

いま、世界中の企業や研究者が、画像や映像、音声を分析し、生成AIで作られた可能性を数値で示す「検証ツール」の研究開発を行っている。

NHKでも、去年から海外のツールを中心にその実効性の検証を行っていて、フェイク画像をどれくらいの確度で検出できるかを確かめている。

実際、これまでに災害をめぐるSNS投稿や台湾で行われた総統選挙で拡散された不審な動画などを検証し、AIによって加工された可能性を検出してきた。

一方で、生成AIの技術が急速に進歩していることで、検出が間に合わないような技術が使われた巧妙なフェイクから、音声の一部を切り取ったり、過去の別画像を使いまわしたりしただけの安易な偽情報「チープフェイク」もまん延しているなど、AIツールによってフェイクをすべて見抜くことは難しいのが現状だ。

こうした検証を通して、技術だけでなく、人の目や経験を組み合わせてフェイクに立ち向かっていかなければいけないと実感している。

信頼できる情報にラベルを
フェイク画像の検証と合わせて、事前に信頼できる情報を「認証」しようという取り組みも始まっている。

「C2PA」と呼ばれ、日本語では「コンテンツの出どころと認証に関する標準化団体」という意味がある。

世界各国のメディアやIT企業およそ100社が参加し、画像や映像の製作者や編集履歴を誰でも見られるようにして、その信頼性を高めようと取り組みを行っている。

去年5月にNHK放送技術研究所も参加した。

▽画像や動画、音声といったデジタルコンテンツが撮られた日時はいつか
▽編集はいつどのようになされたのか
▽どこのメディアに掲載されたのか

コンテンツの「出どころ」や「足跡」をたどれるようにする仕組みだ。
また、記録される情報は、「改ざんできない仕組み」にする開発が行われている。

ただC2PAは加盟社が仕組みを話し合ったり、開発をしたりしている段階で、普及までに数年はかかると言われている。

出回っている画像や映像は、本当に正しいのか。
信頼できる情報を発信するために、報道機関はどう検証していけばいいか。
これまで以上に問われる時代になってきている。

Follow us on social

Facebook Twitter Youtube

Related Posts