メインコンテンツへスキップ
main content, press tab to continue

執筆者 足立 照嘉 | 2024年5月21日

AI技術の急速な発展は芸術から選挙まで、さまざまな活動に創造と破壊をもたらしている。AIと人間の共生に向けた重要な課題を多角的に考察し、その先にある未来について探る。
Corporate Risk Tools and Technology||Risk and Analytics
N/A

AIアートと芸術

壮大な宇宙空間でオペラが演じられる様子を描いた “Théâtre D'opéra Spatial(宇宙オペラ劇場)”という作品が、米国で開催された芸術コンテストの絵画部門で入賞したことで物議を醸したのは2022年のことだ。

何故か?

それは当時急速に身近になり始めていた「生成AI」によって描かれた作品が、初めて賞を受賞したことへの賛否両論が巻き起こったからだ。[1] [2]

この生成AIとは大量のデータを学習することで、人間のように自然な文章や画像、音声を生成できる技術である。その高度な文章生成能力は、OpenAIの開発した大規模言語モデル「GPT-3」が2022年に発表され注目を集めた。[3]また、「DALL-E」や「Stable Diffusion」などの画像生成モデルが登場したことで、AIによる芸術的な創造の可能性も広がっていった。

しかしながら、人間が創造性を持ってAIに依頼しなければ芸術的なものは描かれないことから、AIは人間の創造性を拡張するツールであるという意見もある。実際、米国で入賞した作品をAIに依頼するにも、メディア、カラーパレット、ストロークパターン、ブラシサイズなどの様々なパラメーターを設定する必要がある。

ところで、人間のアーティストのスタイルでアートを生成するようAIに依頼することもできる。それは生成AIが学習に用いる大量のデータで人間による作品を利用しているためである。当然、このことへの批判的な意見も多い。

人間の創作物とAIの生成物を区別する必要性や、AIの学習に使用されたデータの著作権問題など、法的・倫理的な課題が指摘されている。

同時に、AIアートの市場価値は高まりつつあり、これは生成AIではなく敵対的生成ネットワーク(GAN)と呼ばれるAIアルゴリズムによって描かれた作品であるが、$432,500(およそ5,000万円)で2018年に落札された作品もある。[4]この作品は、14 世紀から 20 世紀にかけて描かれた15,000枚の肖像画を学習して描かれている。

ディープフェイクと選挙

2024年は世界中で大規模な選挙が予定されており、同時に多くの懸念を引き起こしているのがAIを悪用した、「ディープフェイク」と呼ばれる偽の映像や音声の生成だ。既に、米ニューハンプシャーの予備選挙では、投票しないように勧めるバイデン大統領の偽音声が有権者に発信された。

もちろん、ディープフェイクは悪いことばかりではなくエンターテインメントや教育など、様々な分野での活用が期待されている。あるファッションブランドでは人気モデルのディープフェイクによってヨーロッパの街や村に向けて29万件のローカライズされた広告を作成でき、このようなことはAIだからこそ為せる業だろう。

しかし一方で、偽情報の拡散や詐欺、プライバシー侵害などの悪用も懸念されている。

ディープフェイクへの注目が集まったのは2020年に行われた前回の米大統領選挙でのことで、ディープフェイクを用いた選挙干渉の懸念が高まり、社会的な問題として認識されるようになった。[5]

メディアやジャーナリズムにおいてもディープフェイクを用いた偽ニュースを拡散してしまわないよう、信頼できる情報の提供と事実検証の重要性がこれまで以上に高まっている。

メディアではAIを活用した自動記事生成なども活用しており、そのようなことからも情報の信頼性は重要である。

ちなみに、お読みいただいている本稿においても、文章の一部に生成AIが著した文章を含んでいる。およそ一年前の記事でもAIによる執筆を試みているが、それなりの難しさがあり、実際には自分自身で執筆するよりも多くの時間を費やしてしまった。[6]

今回はより自然な文章に技術の進化を実感したが、同時に織り込まれている誤った情報、特に実際には存在しない情報に基づいた記事が紛れ込んでいるため一つ一つの情報の裏付けを取りながら執筆を進めるのには多くの時間を費やすこととなった。

ところで英国では、野党党首キア・スターマー氏が職員に悪態をつく音声が、党の年次大会が開かれた2023年10月にソーシャルメディアで公開された。これもディープフェイクによってつくられた音声であり、はからずも英国政治における最初の重大なディープフェイクとなった事件である。[7]

いくつかのソーシャルメディア・プラットフォームは、ディープフェイクによる偽音声を迅速にプラットフォーム上から削除したものの、すぐには削除要請に応じなかったソーシャルメディア・プラットフォームもあった。それは、偽音声が確実に偽音声だと判断できない状況で、措置を講じることはできないという理由からだった。[8]

事実を確かめること以上に、無いものを無いということを証明するのは難しい。

AIと法規制

2024年の選挙においてAIが生成する有害な選挙コンテンツを軽減するために テック企業およびAIに特化した20社が今年2月にミュンヘン安全保障会議で協定に署名した。その内容として、リスクを制限する新技術の開発、AIモデルがもたらす悪影響の評価、プラットフォーム上での操作されたコンテンツの拡散の検出、プラットフォーム上で検出されたコンテンツへの適切な対処、業界横断的な回復力の促進、透明性への取り組みの強化、市民および社会組織との関わり、欺瞞的なコンテンツに対する一般市民の認識の醸成への支援など、8つのステップを踏むことに合意している。

また、AIとディープフェイクの普及に伴って社会的な影響への懸念が高まる中、偽情報の拡散、プライバシー侵害、詐欺などの問題に対処するために、各国政府でも対策に乗り出している。

米国では2020年に「National Defense Authorization Act(NDAA)」という2021 会計年度の国防権限法にディープフェイクに関する条項が盛り込まれたことで、ディープフェイクの検知技術の開発や、関連する研究への支援が強化されている。[9]

州レベルでも今年2月現在で週平均50のAI関連法案が提出されている状況で、その内の半分がディープフェイクに関するものである。カリフォルニア州やテキサス州では選挙期間中のディープフェイク動画の配布が禁止され、選挙に影響を与える可能性がある。[10]ただし、包括的な連邦法が存在していないため、州ごとに異なる扱いで継続する可能性がある。

英国では2023年に「Online Safety Act(オンライン安全法)」が改正され、たとえ画像を共有するつもりがなくても、同意なしにディープフェイクを含む親密な写真やフィルムを共有し有罪判決を受けた場合には無制限の罰金を科されることとするなど、ディープフェイクを含む違法・有害コンテンツへの対処を義務付けている。[11] 英国政府は潜在的に悪意のあるAI生成コンテンツに関するリテラシーの構築に関して、AI の使用にラベルを付けることがユーザーにとって有益であると示唆しており、今年2月に公開された報告書では情報の信頼に対するAI関連のリスクや、ディープフェイクなどの関連問題に関する証拠を求める活動を開始するとしている。[12]

また、英国政府はディープフェイクに関する啓発活動にも力を入れており、2019年に公開された報告書では、その影響や技術的な課題についても述べている。ここではディープフェイクがどのようにして作成されるのかについても、図を交えながら分かりやすく説明されているため、理解を深めたい方は一読されてみても良いだろう。[13]

欧州連合(EU)では今年3月に「AI Act(AI法)」が採択され2026年までに段階的に発効していくが、ここでもディープフェイクに関する規定が設けられている。AI法ではAIシステムを用いる側の規定が設けられているが、AI を使用してディープフェイクを作成する者は、クリエイター、アーティスト、その他の誰であっても、この事実を一般に公開しなければならないと義務付けている。[14] ただし、プライバシーと表現の自由におけるユーモアの適用除外によって、単なるジョークと主張することでの抜け道ができることも法律家の間では懸念されている。

各国や地域ごとに定められているディープフェイクに関する法規制は、技術の進歩に合わせて継続的に更新されており、偽情報の拡散防止やプライバシー保護、倫理的な利用の確保など、多岐にわたる課題に対処するための包括的なアプローチが求められている。今後は各国や地域の連携を強化し、国際的な枠組みづくりを進めていくことが重要となるだろう。

なりすましと本物

従来より偽画像による「なりすまし」は存在していたが、生成AIの急速な発展によって「なりすまし」がより簡単に実行できるようになった。もちろん、生成AIが悪いと言っているわけではない。悪い使い方をする人がいるのだ。

既に、ディープフェイクによる偽CFOとのウェブ会議によって、香港では国際的な企業の財務担当者が2,500万ドル(およそ30億円)を支払ってしまった事件も発生している。[15]なんとこの事件では、偽CFOどころかウェブ会議に参加していた全ての同僚がディープフェイクによる偽物だった。

企業もディープフェイクへの対策を強化しており、大手テクノロジー企業からは機械学習を用いてディープフェイクを識別し、コンテンツの信頼性を評価する、ディープフェイク検知のためのツールやサービスも協力と提供されている。

ソーシャルメディアプラットフォームでも対策に乗り出しており、ディープフェイクに関するポリシーを更新して警告ラベルの表示や、虚偽と判断されたコンテンツの削除や警告表示を実施している[16] [17]

しかしながら、コンテンツが削除される前に急速に拡散する可能性もあり、削除された時点で既に損害が発生している可能性もある。実際、歌手のテイラー・スイフト氏のディープフェイクがソーシャルメディアで拡散された際には、画像を共有したアカウントがポリシー違反で停止されるまでの17時間で既に4,500万回以上も閲覧され、24,000回の再投稿もされている。

また、偽物を見つけるだけでなく本物であることを証明するためには、ブロックチェーンを活用した真正性の証明や、デジタル透かしによるコンテンツの追跡などの研究が進められている。メディアコンテンツの出所と来歴を証明するための技術標準の開発を目指して業界団体のイニシアチブも共同設立されており、コンテンツクレデンシャル機能を撮影時に画像に埋め込むことのできるカメラも既に市場には出回っている。[18] [19]

今後、AIとディープフェイクは共に進化し続けていくことに疑いの余地はなく、ディープフェイクの悪用に対する防衛策も進化していかなくてはならない。また、法的規制や倫理的な議論も深化し、AIの健全な活用を促進するための枠組みづくりが進むと考えられる。

テクノロジーの恩恵を最大限に活かしつつ負の影響を最小化するためには、多様なステークホルダーの連携と協力、包括的な対策が不可欠である。AIと人間が共生する未来に向け、いま重要な岐路に立たされている。

出典

  1. An A.I.-Generated Picture Won an Art Prize. Artists Aren’t Happy. (The New York Times)Return to article
  2. @GenelJumalon (X)Return to article
  3. Introducing ChatGPT (Open AI)Return to article
  4. Is artificial intelligence set to become art’s next medium? (CHRISTIE’S)Return to article
  5. Top AI researchers race to detect ‘deepfake’ videos: ‘We are outgunned’ (The Washington Post)Return to article
  6. サイバーリスク:AIのつくり出す偽物Return to article
  7. Keir Starmer suffers UK politics’ first deepfake moment. It won’t be the last (POLITICO)Return to article
  8. Battle With X Over Starmer Deepfake Highlights UK Election Worry (Bloomberg)Return to article
  9. H.R.6395 - William M. (Mac) Thornberry National Defense Authorization Act for Fiscal Year 2021 (CONGRESS.GOV)Return to article
  10. AB-730 Elections: deceptive audio or visual media.(2019-2020) (California LEGISLATIVE INFORMATION)Return to article
  11. Online Safety Act 2023 (UK Parliament)Return to article
  12. A pro-innovation approach to AI regulation: government response (GOV.UK)Return to article
  13. Snapshot Paper - Deepfakes and Audiovisual Disinformation (GOV.UK)Return to article
  14. Recital 134 (EU Artificial Intelligence Act)Return to article
  15. Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’ (CNN World)Return to article
  16. Enforcing Against Manipulated Media (Meta)Return to article
  17. Synthetic and manipulated media policy (X Help Center)Return to article
  18. Coalition for Content Provenance and AuthenticityReturn to article
  19. 新製品:ライカ M11-P(Leica)Return to article

執筆者


サイバーセキュリティアドバイザー
Corporate Risk and Broking

英国のサイバーセキュリティ・サイエンティスト。
サイバーセキュリティ企業の経営者としておよそ20年の経験を持ち、経営に対するサイバーリスクの的確で分かりやすいアドバイスに、日本を代表する企業経営層からの信頼も厚い。近年は技術・法規制・経営の交わる領域においてその知見を発揮している。


Contact us