いつも応援&ご愛読ありがとうございます。
最近SNSなどでも様々な意見を目にするわけですが……
創作界隈で議論されているのはもっぱら「自分のオリジナリティや権利が侵害されるか」という点ばかり。
その辺り、確かに法整備などできちんと保護する必要はあると思いますが、その一方で、創作物そのものにこめられた魂のようなものというのは作り手独自のものだとも考えます。
文章に限って言えば、人間も他人のアイデアや文章を真似る……悪く言えば「パクる」ことは多々あります。
しかし、ただ「パクった」だけでより優れたものが書けるかと言えばそんなわけはなく。
一部の文体を真似たところで、字書きの表現力はそのまま再現できるほど甘いものではないんじゃないかなぁ?と。
さらに言えば、AIが自分なりの何かを自律的に文章の中に盛り込み、自分なりの作風を生み出せるようになるのであれば、それはまた新たな作り手として認めても良いんじゃないかとも。
まっとうなAI技術者さんや使用者さんなら、他者の創作や権利を尊重した上で、より良いAIの利用法を編み出すことができると思っています。
逆に言えば、悪質なユーザーを取り締まる法整備と悪質ユーザーを見分けるための方法の確立が極めて重要になるわけですが。
そこをきちんとおさえておけば、ある程度は人間のクリエイターの権利は守られるのではないかと。
それはさておき。
私が最も危惧するものは、「悪質なユーザーによるディープフェイクを用いたデマの拡散」です。AIそのものではなく使う側の問題ですね。
これは実際に既にSNS上でかなり蔓延していて、国際情勢のウォッチャーさんや戦災難民を支援している方々達の間で話題になっています。
私もよく「数年前の戦災で破壊されたシリアの街並みの画像をAIを用いて加工し、現在のパレスチナの被害だと主張するSNS投稿」を目にします。
これらの投稿は、一見「戦災に苦しんでいる現地の人々を応援して支援を呼びかけるため」に発信されているように見えますが、注意深く読むと過去の戦争犯罪を別のものにすり替え、犯罪に手を染めた者たちを正当化しようとするものがほとんどです(というか、そういうものしか私は見ていません)
この場合、(拡散している人々はともかく)大元の発信元は明確な悪意を用いてAIを使用していますが……ぶっちゃけ情報戦の世界で性善説が通用するはずがないのも事実です。
まだ現在は強い違和感で「これは加工された画像などを用いたフェイクだな」と私ですら気付けるレベルの出来ですが、それでもここ数か月で急速に精度を増してきています。
今後、素人目には見分けのつかない生成AIを悪用した「ディープフェイク」が蔓延するでしょう。
これらのフェイクを識別するための技術の確立が急がれるのはもちろん、我々一般人も「目にした情報が本当に正しいか、複数のソースでファクトチェックをする」という習慣をつける必要がありそうです。