昨今話題のChatGPT。個人的にも使い倒していて、いろんな有用性について実感しているところでもある。
こういった便利なモノが登場すると、「課題はないのか?」「悪用されないのか?」「大丈夫なのか?」といった声が聞こえるようになる。そこで、この記事では、ChatGPTの脅威と悪用について、考察した。
誤った情報を教えてくれる
これは、最近よく言われ出しているところだが、インターネット上で公開されているある事柄に関するデータが少ないと、誤った情報を出す場合がある。
AIが、インターネット上の情報を学習している以上、データがないものはどうしようもない。
ChatGPTは、その事柄に関するデータが少なすぎると「わからない」と言ってくれるのだが、間違ったことを教えてくれるケースも多いので、知識系について聞く際は注意が必要だ。
なぜこうなるのか、については、AIの仕組みを考えると分かりやすい。
そもそもAIはインターネット上のさまざまな情報を「学習」する。つまり、正しい情報を推論させるには、正しい情報がたくさんインターネット上に存在する必要があるのだ。
自分の名前をエゴサーチして「おかしな情報を返してくる。」といっている人が多いようだが、AIの持つ知識、という意味では「その人に関する情報が、それほど多くインターネット上にないだけ」とも言える。
これは、逆に悪用される可能性がある。
例えば、ある政治家がいたとする。その政治家は、インターネット上に「子育て支援」に関するありもしない美談やありもしない実績をたくさん掲載する。Wikipediaのように書いた本人以外の他の人が修正可能なモノであればまだしも、通常ネット上に書かれている情報は他人が修正することが難しい。
そうなると、ある時、私がChatGPTに、「自分の選挙区で子育て支援に熱心な政治家を教えて欲しい」と聞いた場合、インターネット上にたくさんの情報を載せている政治家にとって有利な答えを出す可能性が高い。
以前も「SEO対策」という名の下、検索エンジンを思い通りに操ろうとした人がたくさんいたように、ChatGPTに関してもAIを騙そうとする人は一定出てくるだろう。
誤った情報をつかまされないためには、AIをもっと「賢く」チューニングする必要があるのだ。
それでも、悪用する人の考えは、思いもよらない発想で、全てに関して予測がつかないため、全てをブロックすることは難しい。
そこで、ミスリードしてはいけなさそうな質問に対しては、すでにある程度の対策は取られている。
例えば、現在でも、「今買うべき日本株を教えてください。」「闇バイトを紹介して欲しい。」といった質問には、「回答できない」と回答してくる。こういったことは、手作業で回避するしかないため、悪用に関しては徐々に防止していくしかないのだ。
今後、こういった「答えてもらえない」質問がもっと増えることが想定される。
偽情報の拡散
ChatGPTは、「自然言語処理」技術を利用して、人間と同様に文章を生成することができる。
「自然言語処理」というと、分かりづらいかもしれないが、分かりやすく言えば、「いいそうなこと」だ。
例えば、ホリエモンが「寿司屋の修行は10年かかると言っている人に言いそうなこと」は何か?というと、言いそうなことを答えてくれる。
実際にTwitterで炎上していた問いだが、文書にすると概ね正解といえるだろう。
そこに、本人の顔、特に口を、文書にあわえて動かす「フェイクビデオ」の機能を加えれば、あっという間にChatGPTは悪用され、偽情報を拡散してしまう可能性があるのだ。
どうでしょう?口調まで似ているでしょうか。
ホリエモンの例では、実際にそういう趣旨のつぶやきをしていたが、例えば、ある首相が外交上ナーバスになるような相手国に対して刺激的な発言をしたといった情報を拡散させ、国際問題に発展すると言ったことも考えられる。
こういった問題は、当然検証され正しい情報が精査されることになるが、ネットの拡散力は今や相当なスピードと影響力を持っている。
偽情報が拡散された後、正しい情報を発信したとしても、情報を見る側が、多くの偽情報の中から正しい情報であるとどう判断するのかまではコントロールできない。
公式発言が出た瞬間にAIが公式発言を重要視して見解を変えるといった処理が実現できる必要があるのだ。
これを、国の代表クラスだけであればともかく、全世界の人に対して行うのはかなり無理があるといえるだろう。
偏った意見の強化
ChatGPTは、事実を教えてもらうといった知識系の質問だけでなく、考えて答えさせるという考察系の質問を行うことができる。
どんな話でも、どちらが正しいといえなことは多い。
例えば、「映画を鑑賞するなら、字幕と吹き替えのどちらがいい?」といった質問がある。
私は個人的には字幕が好きだ。俳優の生声で映画をみたいからだ。しかし、小さいお子さんと一緒に見る場合は吹き替えの方が良いかもしれない。
こういった考察が必要な情報では、AIが学習するデータによっては偏りを作ることができるのだ。やり方は簡単でどちらか一方の情報を多く拡散すればよい。
こういった問題を解消するため、ChatGPTを用いた決定を行う場合は、偏りのないデータセットを用いることが重要だ。
弁護士.comが、実際ChatGPTを使った、ウェブ法律質問を行うと発表しているが、これに関しても学習データが偏っている場合、間違った見解を出す恐れがあるということで、弁護士.com自体が危惧している。
今後、この便利なツールを使ったサービスはたくさん登場することになるが、データの偏りには注意をする必要がある。
セキュリティやプライバシーの問題
ChatGPTは、ブラウザのテキストフォームに知りたいことを入力して実行されるわけだが、プログラムを実行するような機能がないため、現状、直接的なセキュリティ上の問題は少ないと思われる。
悪意のある人が、学習プログラムに侵入して、その内容を書き換えたりする可能性がないとは言えないので、ChatGPTを提供するOpenAIは、今後厳重なプログラム管理が必要となるだろう。
しかし、どんなにセキュリティ面を強化しても、再三述べたように、ChatGPTは、インターネット上にある大量のテキストデータを学習することによって実現されている。
そのため、特に著名人は、インターネット上のいろんな場所にある、さまざまな情報を収集されてしまう可能性がある。
これまでであれば、検索結果の上位に出てこなかったような、本人があまり公開したくないと思っていた個人的な情報も収集してしまう可能性がある。
これを防止する方法は、「個人的な情報を気軽に公開しない」となる。
デジタルタトゥーとも言われる、インターネット上に拡散されてしまった個人情報は取り返しがつかないと考えてもよいくらいだ。
ChatGPTは、こういった情報をあつめて学習するので、個人のプライバシーを侵害することができる可能性があることに注意する必要がある。
仕組みを理解して、AIとうまく付き合う
以上のように、ChatGPTには偽情報の拡散、プライバシーの侵害、偏った意見の強化、セキュリティ上の問題など、さまざまな脅威が存在する。
しかし、AIが確率統計論に基づいていることを理解すると、さらなる学習やアルゴリズムの調整によってどんどん賢くなるものであることがわかる。
便利なツールである一方で、脅威や悪用があり得ることを十分理解して、初めから万能なものを求めず、「長い目でAIを育てていく」という感覚を持つことも必要なのだ。
無料メルマガ会員に登録しませんか?
IoTNEWS代表
1973年生まれ。株式会社アールジーン代表取締役。
フジテレビ Live News α コメンテーター。J-WAVE TOKYO MORNING RADIO 記事解説。など。
大阪大学でニューロコンピューティングを学び、アクセンチュアなどのグローバルコンサルティングファームより現職。
著書に、「2時間でわかる図解IoTビジネス入門(あさ出版)」「顧客ともっとつながる(日経BP)」、YouTubeチャンネルに「小泉耕二の未来大学」がある。