生成AI推進派に反AIと言われたのでいっそのこと反AI作家として生成AIの将来を考えてみる

砂鳥 二彦

第1話

 自動翻訳、会話、画像、そして動画まで出力できるようになった生成AI群は社会的認知度が十分に上がり、最近ではネットだけではなく現実の日常会話でも登場する単語となってきた。


 そろそろ自分の生活にも生成AIを活かしたい、と考える人はこの文章に目を通している人たちの中にも多いと思う。しかし今のところ、生成AIを利用した代表的なビジネスは生成AIそのものを利用するためのサブスクと生成AIの使い方を紹介した情報商材くらいしかない。生成AIの利用を大々的に奨励しょうれいするレベルの有望な活用方法は今のところ存在しない。


 生成AIの将来を盲目的に信用するユーザーたち、いわゆる「生成AI推進派」もしくは「生成AI肯定派」の言い分では有効活用手段がないのではなく、自分のような「反AI」の反動的な工作が原因らしい。本来生成AIの利用は合法なので問題なく、幅広く使われているべきなのに邪魔する派閥があるせいだ。というのが彼らの言い分らしい。


 推進派が呼ぶところの反AI派閥による妨害行為は「生成AIの利用は危険で様々な権利を侵害している恐れがある」という発言そのものらしい。確かに自分がオンライン上で行った活動が、真偽は別として「権利の侵害行為」と言われれば誰でも委縮する。特にネット上で意見が分かれているなら、なおさら効果的だろう。解決するには相手の口を塞ぐか、生成AIを用いた活動の妥当性に決着をつける必要があるだろう。


 さて生成AIの問題点を指摘しているから反AI、という言い方は短絡的だし言葉の誤用なので、今更だがこちらの名乗りは推進派との対立を意識して「生成AI規制派」であるとも紹介しておこう。


 推進派としては、規制派が単に見解の違う反対派と思われるのは大変好ましくないらしい。それに時代遅れな反テクノロジー派閥、または陰謀論者集団というレッテルの張りやすい反AIという呼び名の方がしっくりくるらしい。


 ただ問題が存在するならば、その真偽を確かめて是正ぜせいすべきではないか? と思うかもしれないが、推進派にとってそれは都合が悪い。何故ならばその問題点の多くは今すぐ利用を妨げるようなテクニカルなトラブルではなく、今すぐ使用ができなくなるような個人の権利に関わる問題だからだ。


 まずはこの生成AIに規制を設けるべきだという根拠として挙げられる、クリエイターの権利問題について話そうと思う。次いで日本と世界で起きている現実の規制と判例を述べ、最後に自分の考えを述べようと思う。




 生成AIの周囲にある問題は、これを読んでいる人たちも幾つか見聞きした事例があると思う。写真ではディープフェイクによる偽情報が起こす混乱、イラストではAIイラストによるデータセットの著作権問題がある。文字媒体としてはハリウッドで起きた脚本家と俳優たちのストライキが記憶に新しく、そして俳優自身も自分たちの姿や声の肖像権を守る試みが世界的に進んでいる。


 それぞれ画像や言語に特化した生成AIなど複数あるが、最初は画像生成AIに着目してみようと思う。画像生成AIは前述したディープフェイクとAIイラストが主な社会問題になっている分野だ。つまり写真と絵の問題だと思ってもらいたい。


 どちらも共通した問題として機械学習というものがあり、生成AIを語る上で中心的なワードとなっているので解説する。


 その前に、そもそもAIとプログラムの違いは何だろうか。このタイミングで語る時点で察した人もいると思うが、機械学習を必要とするか否かが決定的な差異なのである。


 正確に描写すればAIは機械学習アルゴリズムを利用して現時点で存在しているデータを複数とりこみ、プロンプト(人間による命令文)の際に機械学習によってAIが獲得した特徴量(特定の概念における論理的な法則性や汎用パターンにおける変数)を利用できるようにしている。


 プログラムの場合はこの機械学習がないため柔軟性は少なく、あらかじめ定義された一連の命令しか行えない。より簡略化すると計算式そのものと例えるのが適切だろう。


 では次は、メインテーマの生成AIについて注目してみよう。


 まず生成AIが「リンゴ」を出力しようとすると大量のリンゴの写真もしくはイラストを機械学習して、リンゴの特徴量をインプットしなければならない。


 この際にプロンプトのワードを認識して生成するために、写真とワードを関連付けさせるラベリングという機械学習が行われる。ワードの他にもイラストから別のイラストを出力するi2i(image to image)というやり方もあるが、プロンプトと生成物の種類が同じだからといっても大まかな仕組みが変わるわけではない。


 ここで覚えて欲しいのは機械学習によって獲得する特徴量は大量のデータから変数を生み出している点である。人間にとっての学習と違い、主要に扱うデータ以外(画像生成AIにおける画像以外)の概念や物理法則に弱く、その点がAI特有の生成を行う原因にもなっている。


  大量のデータを機械学習することで「AIくささ」は薄まる一方、まだまだ技術的に越えられないプログラム面の問題点も存在している。


 特に人間と生成AIの違いが顕著けんちょに表れる「一本のバナナ問題」について述べてみよう。


 一本のバナナ問題、とは実際に様々なプロンプトで「一本のバナナを生成してください」といれてイメージを生成したところ、何故か必ず二本のバナナしか生成されなかった、という出来事がキッカケだ。


 この原理自体は大量のデータによって生じたバイアスが原因だ。「生成AIに、房のある状態のバナナばかりをデータセットとして学習した結果。一本のバナナの画像(もしくは写真)を生成できなくなった」という均一化の現象がそうだ。


 なぜ機械学習しているのにAIは間違いを自覚して改善できないのかと言えば、生成AIは物理世界ではなく論理の世界に生きているからである。機械学習した生成AIはバナナの仕組みを理解したわけではないので「バナナとは黄色く、房があり、棒状のものが付随している」というものを特徴量として得ているだけなのである。生成AIは数を理解しているわけではないので、「一本のバナナ」をラベリングして覚えなくては同じものを安定して生み出せないというわけだ。


 このような挙動が何を証明するかと言えば、人間の学習と生成AIの機械学習は仕組みが違う、という点だ。


 人間ならば複数本のバナナを与えられて学習する際、今までバナナを見た経験がなくとも過去に学んだ数の法則性や果実には複数の実を持つものもあるという知識があれば一本のバナナを見破るには十分であろう。


 先ほどの生成AIの問題から言葉を借りれば、物理的・論理的側面を同時に認識できているおかげ、となるのである。


 一方、生成AIにも同じように数の法則性と複数の実について学ばせようとしても、それらの相関性を判断できないため「一本」と「複数本のバナナ」による大量のデータでは完璧に出力できず、「一本のバナナ」を別途べっとラベリングしなければ精度の向上は見込めない。


 ちなみに「一本のバナナ問題」を発見した人物は解決するために二週間試行錯誤した結果、「灰色の背景に影を落とす一本のバナナ」でやっと一本のバナナを生成できた。だがその中には二本のバナナや一本のバナナが裂けたものが含まれており、安定しなかったそうだ。




 前置きが長くなったが本題のクリエイターの権利問題について話そうと思う。長話になったが、この問題には先ほど挙げた生成AIの仕組みと機械学習が肝になっている。


 そもそも機械学習に使われるデータにまでどうして権利問題が発生するのか疑問に思う人も多いかもしれない。生成AIがクリエイターの作品を機械学習するのと人間が学習するのは同じ行為なので合法ではないか? と思うだろう。


 その前に著作権侵害問題に触れておく、著作権問題について全て書くと文字数が多すぎるためここでは概要と典型例、それと生成AIが関わる重要な部分だけに留めておく。


 著作権侵害とは、他人の著作物を本人からの許諾を得ずに無断で利用することだ。もちろん商品として購入すれば一部利用を許諾されるが、何をしてもいいわけではない。


 侵害の典型例として挙げられるのは無断で複製したり、無断でネット上にアップする行為。著作物に無断で修正を加える行為。著作物に依拠性・類似性のある作品を無断で作成する行為(私的以外の複製行為)。これら三つの侵害行為がある。


 ちなみに依拠性とはその著作物にどの程度依存して作られているかであり、類似性とはどれくらいその作品に似ているか、である。


 ただし刑事法でありながらも、著作権には「親告罪」がある。親告罪とはかいつまむと「著作物の著者でなければ訴える権限はない」というものだ。理由は著作権侵害の「疑い」だけなら意図的にしろ意図しないにしろ多い。そのため著者以外が通報できるようになると事実の可否関係なく「相手の表現が気に食わないから通報する」のも可能になってしまうからだ。


 また創作関連は一次創作にしても二次創作にしても、他作品の影響を受けているためその多くは「法にとってのグレーゾーン」を踏んでいる。それゆえ誰でも通報できる状況は間接的に創作表現の規制になってしまい、創作表現界隈の萎縮が進むと言われているせいだ。


 実際の著作権侵害でも過去の作品を学習した結果、著作権侵害として裁判せざる得ない依拠性と類似性を持った作品を生み出してしまう事例は多々ある。けれど訴えられていない他のほとんどの作品は訴訟されるレベルに達していない。それは人間の学習が依拠性と類似性を避けられるという反証でもあるが、機械学習においても同じようにできるのだろうか。




 では機械学習の本質は何なのだろうか。自分は決してプログラミングの専門家でもないし、生成AIの開発者ではないので端的に表現しても的外れかもしれない。


 それを承知してあえて言うとすれば、「機械学習は高度で複雑化した複製」というのが自分の見解だ。ただこれは「生成物が複数の作品の特徴量からアウトプットする」構造のため、人間の目で見るだけでは特定作品の複製と言えず、複製権の違反をはっきりと追及できない裏返しでもある。


 注意しておきたいのは、機械学習の著作権侵害は複製だけではなく無断使用も焦点になっている点だ。特に無断使用については日本と世界の著作権法で違いがあるので、後述する。


 さて機械学習の話に戻ろう。機械学習と人間の学習が全く同じものではないことは既に「一本のバナナ問題」で証明できている。では機械学習そのものは何か、複製かそれ以外か、という点が重要になってくる。もちろん自分の勝手な認識以外の方法、でだ。


 ここで自分はもうひとつ、実験的に証明された生成AIの「モデル自食症」「共食いハルシネーション」という部分に着目したい。


 この二つは共にハルシネーション(幻覚)が原因だが、ハルシネーション自体二つの種類がある。それは「学習に用いたデータとは異なるデータの出力」と「学習に用いたデータに存在しないデータを出力する」というものだ。


 どちらも大量の学習データの中に偏りや誤りがある場合や、そもそもAIモデルのアーキテクチャや学習のプロセスに問題があった、などが考えられる。


 ただし問題の明確な特定は難しい。ハルシネーションの除去方法は学習データの質の向上、フィルターによる制御、人間によるフィードバックなどが考えられる。


 幾つか対策がなされている一方、ある論文では原理上ハルシネーションの完全な除去は不可能とされている。それは簡潔に述べれば、完全性・無矛盾の自己定義は証明できない、というものだ。


 ただしゲーデルの不完全性定理など、正確には自然数論などの条件を持つ定義が使われるので厳密には自分の解釈もどこか間違っている可能性はある。


 話は戻るが自食症、共食いと呼ばれるハルシネーションは「別の生成AIが出力した生成物を他の生成AIが機械学習に用いる」という方法を繰り返し行った結果、生成物の質が低下し多様性を失う。というものだった。


 最初は画像生成AIによる研究の結果だったが、最終的にはほぼ全ての生成AIモデルで同じ現象が確認されているらしい。


 この事例がはっきり示しているのは「生成AIは人間のデータを学習し続けなければ品質と多様性を向上させられない」という点だ。


 言い方を変えてみれば、生成AIそのものは機械学習によって生成物に創作的な付加価値を与えるわけではない、という見方ができる可能性さえあるのではないだろうか。




 先ほどの結論はあくまでも複数の事例を解釈した自分の推論であり、確定した事実ではない。例え的外れではない考察だったとしても、事実関係と考察はしっかりと区別して考えるべきなので結論にすべきではない。


 そのため、今度は現実に行われた生成AIの法解釈や判例を書きだそうと思う。


 まず日本での生成AIは、改正された著作権法と実際の判例に目を通すべきだろう。


 日本の著作権法は既存の法解釈を基に平成三十年に改正され、三十条の四では著作物の権利制限規定を設けて無許諾な機械学習が可能になっている。


 この点は生成AIを利用する人の多くが「全てのデータは許諾なく機械学習ができる」と捉えているが、本来はそこまで自由度はない。何故なら他にも「享受を目的としない利用」や「著作者の権利を不当に害しない」などが付け加えられているからだ。


 享受、というと具体的に想像しにくいと思う。文化庁の見解では「著作物等の視聴等を通じて、視聴者等の知的・精神的欲求を満たすという効用を得ることに向けられた行為」などが示す通り、ある種の「著作物を楽しむ行為」を指している。


 では果たして機械学習の結果、画像や音楽、動画を生み出して誰かを楽しませる行為に使われた場合は機械学習元のデータを享受していないとハッキリ言えるのだろうか。


 現段階では三十条の四を根拠にした判例は確認できていない。四十七条の五のように軽微利用などの条項もあるが、明確な線引きは避けて判例を待つ状態になっている。


 また上記の二つは、機械学習の段階までに適応される権利制限規定であり生成段階では適応されない、という点も注意が必要だ。先の条項はあくまでも機械学習させた開発者側の責任であり、利用者の責任はまた別になっている。利用者であっても追加の機械学習をさせた場合、開発者としての責任を持つ可能性もある。


 そのため生成AIに関連したこれまでの判例は「人間が行った著作権侵害行為」と同じような判決が出ている。


 特にこの生成AIに関連した判例は「ディープフェイクによるポルノ動画」に多い。三年前の令和三年九月のとある記事によれば、女性タレントの顔画像を生成AIによって合成したアダルト動画を有料配信して有罪になっている。


 裁判長の判決では「タレントの芸能活動において重要なイメージを毀損し、動画はネット上に拡散する」ための名誉棄損とされている。他にも元のアダルト動画が特定されているためか、動画制作会社への著作権侵害も加わっている。


 被告人は「あくまでもタイトルやサムネに激似、と書いてあるだけで本人と誤認させていない」と反論したが「動画の精巧さを考えれば、視聴者が見出しを信用せず、本人だと誤信する可能性は否定できない」と退けられた。


 この判例が示しているのは、生成AIは少なくとも現実の人物において「似ているだけ」という理由で生成物の責任を逃れられない、という点だ。これは明確な人物を特定できるだけの情報があり、特定の動画を利用していると判明しているからこそ可能な判決とも言えなくはない。


 どちらにしろ実際の動画は確認できないし、原告側の弁論も確認できなかったのでこれだけで判断はできないだろう。


 この判例からもうかがい知れるように、同じポルノ動画でもより責任の所在が難しいのは、現実ではなく架空の人物を合成した参考画像・動画が不明な生成物だろう。


 動画の完全な合成による生成はまだ難易度が高いものの、画像については難しい生成ではない。そしてこれらの条件を満たしつつ有名になっている問題は、生成AIによる架空の児童ポルノと実在する児童ポルノの機械学習である。


 生成AIによる架空の人物の顔写真が生成可能なら架空の人物による児童ポルノも可能である。しかも生成AIは基本的に写真とイラストによる制限が存在せず、実写風のイラストなども生成可能だ。


 だが生成AIは元の顔写真がなければ生成はできない。つまりそれが意味しているのは実際の児童の顔写真を基にしている可能性があり、下手をすれば機械学習さえしていれば児童ポルノを基に生成可能という部分だ。


 生成AI開発側もフィルターを用いるなどして児童ポルノのデータ排除を目指しているが、完全に排除するには至っていない。機械学習をすればするほど精度が上がる生成AIにとってその過程で不適切なデータが混入する可能性が上昇する、というのはジレンマだろう。もしかしたらこれもまたハルシネーションと同じで永遠に排除できない問題なのかもしれない。


 次に世界的な規制と判例に目を向けてみよう。規制においてはEUのAIactが大規模なものであろう。


 AIactは今年三月十三日に最終案が欧州会議で可決され、EU理事会では五月二十一日に承認している。これが世界初の包括的なAI規制である。


 規制案にはAIシステムの定義や汎用目的型AIを生成AIと定義している。またAIシステムの提供者と利用者を定義し、利用者でもAIシステムに変更を加えれば提供者としての義務を負うとされている。


 また法の適用範囲は日本であってもAIシステムの提供者や利用者がEUの国にいれば守らないといけないので注意が必要だ。


 条例について全て書くと更に長くなってしまうので概要だけで言えば、具体的に生じうるリスクや活用分野を明言したうえで提供者や利用者に生じる義務について明らかにしている。


 施工自体は発行から施行までそれぞれのリスクに応じて半年から三年以内にされるようになっている。検索すれば、他にも何か追加のニュースがあるかもしれない。


 では次に生成AI開発会社を相手にした判例や裁判の途中経過を伝えたいと思う。まずは画像生成AIの基幹モデルで有名なStability AIが去年訴えられた裁判では、機械学習によって得られたパラメータは画像の複製やコピーではない、と反論して判事に「作品への類似と関与は認められない」として訴えの暫定的な棄却を認めている。


 一方で原告側に判事の見解を否定するための修正を認める機会を認めているため、最終的な判決というわけではない。


 他の生成AI開発会社においても責任を認めた有罪はまだ出ていない、しかし全てが棄却されたわけではなく継続している裁判は多い。また著作権だけではなく、プライバシー侵害での裁判も見られる。


 とはいえ、どの裁判でも生成AI開発会社の責任を証明できる証拠を十分に提示できていない。政治の分野では規制法の議論が起こりつつも、知事の反対や賛否両論もあり全て実現したわけではない。少なくとも判事を納得させる論証ができていないのが現実だ。




 最後に、上記の裁判は現在の生成AIではなく過去の頃のものだ。それでも責任を追及するに至っていない方が多い。EUのAIactもまだ施行されたわけではないため、規制も効果を発揮したわけではない。


 クリエイターの創作物に依存しながらクリエイターの権利を守らず、実在の人物の写真を利用しながら肖像権やプライバシーを守らないのは道理が通らない。と少なくとも規制派の多くは考えている。


 機械学習というフィルターさえ通せば、どんなデータも剽窃ひょうせつできる。そして生成AI自体には権利が発生するだけの創作性があるかどうか疑義が生じるが、あまり重要視されていないようだ。


 ところで生成AIの規制に反対する人たちは表現の自由を心配している節がある。実際には生成AIを野放しにした状態でのリスクは表現規制に匹敵している。


 それは不信感による反動での表現規制の運動だけではない。現在進行形で起きている現象だが、生成AIによる乱造によって機械学習元の作品が森の中に木を隠すように表現を他者に伝える機会を奪ってしまっている点だ。


 それだけならまだしも、酷似した表現を狙い撃ちにして大量に生産した結果、世間一般に「AIの絵の特徴」として認識を歪められた作風もある。


 どちらも著作権などの権利で保護されている部分ではない。表現そのものに著作権はないので、法によって人が表現する行為自体が守られている様子はない。


 最近では生成AIによって創作を止める人も見られている。創作をするのも止めるのも自由とは言うが、それは内的要因の話で権利の侵害などの外的要因であってはいけない。何故ならそれこそ表現の自由の規制だからだ。


 ハルシネーションが示したように創作界隈の盛隆はクリエイターにしかできない。将来的に生成AIの技術的なネックは解決するだろうと主張する人もいるが、テクノロジーが生まれる前に界隈が縮小・消滅する可能性を考えていない。


 しかも界隈の弱体を呼び起こしたのは身内ではなく土足で上がり込んだ外部の人間ともなれば、クリエイターたちが納得できるはずもない。


 いずれにしろどこか落としどころを決めなくては生成AIの利用も社会不安も収まらない。クリエイターだけではなくディープフェイクによる偽情報も日本では踏み込んだ対策がなされておらず、取り返しのつかない事件が起こるのも時間の問題だろう。


 早急に全ての問題が取り除かれるのが一番だが、今妥当な対策はどちらの派閥にしても「議論して疑問に回答し続ける」行為そのものだと自分は考えている。おそらく同じ考えの者もいると思う。


 議論をし続ければ問題認識の拡散が進み、新しい情報を習得しようと誰もが能動的に動ける。最も恐れる事態は問題意識がそもそも存在しないと決めつけて消極的になり、事件や事故として表面化するまで対策も心構えもされなくなる時だ。


 ここまでの文章にも指摘されるような間違いや勘違いがあるかもしれない。できれば自分の話だけを鵜呑みにせず、考え続けるべきだろう。

  • Xで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

生成AI推進派に反AIと言われたのでいっそのこと反AI作家として生成AIの将来を考えてみる 砂鳥 二彦 @futadori

★で称える

この小説が面白かったら★をつけてください。おすすめレビューも書けます。

カクヨムを、もっと楽しもう

この小説のおすすめレビューを見る

この小説のタグ