ふたたび、こんばんは。
チャットGPTというのが、最近もてはやさている。
質問すれば、答えてくれるネットサービス。
受信料を強制的に徴収する天下のNHKが、万能みたいなことをのたまっていた。
しかし、これは、人間をアホにする。
それを見越して異議を唱えたイーロン・マスクは、創業メンバーだったのに、OpenAI経営陣から切られた。
ネット用語に「ググれカス」がありますけど、何か知りたいとき、PCやスマホで検索しますよね。ワンクリックで求める情報に辿り着かなければ、何度も関連ページにアクセスして読み込みますし、気になる情報があれば、つるべ検索でさらに調べるといったことを繰り返します。ちょっとした調べ物で本一冊分の情報に触れることは珍しくありません。
その意味でデジタル世代はアナログ時代と比較にならないほど接する情報量が増えていますし、その膨大な情報を読み解くリテラシーや処理能力を自然と身に着けてきました。
その根源が「検索(グーグル)」です。何か疑問があれば、すぐにググって調べる。それをせず「知らない」「わからない」というヤツはカスというのが「ググれカス」です。
もちろん、その知識はグーグル頼みですから、特定の情報が検索上位に上げられるとか、逆に検索から除外される「グーグル八分」などで容易に操作される脆弱さはあります。
そこに危機感を抱く人は非グーグル系の検索エンジンを利用するでしょうし、そうでなくとも単純な情報量なら、今の私たちは昔より格段に多くを取得・処理するようになっています。
その「ググる」がなくなれば、どうなるのか。断言しましょう。間違いなくカス”になります。
実際、ネットなんて30年前から普及しているのに、昨今の若者たちを指してバカ化”が加速しているといわれています。これって検索を面倒がってSNS、特にツイッターの140文字程度の短い情報で「わかった気」になったり、ニュースや時事情報も数分程度のユーチューブ動画ですませたりしているからです。
ネット世代なのに、ネットの膨大な情報から知りたいことを探すのは面倒と、自分と似た考えの人が集まるSNSや動画の情報にしか触れないんですから、そりゃあ「バカモノ(おバカな若者)」になっちゃいますよ。
そもそもネットの最大の利点は、検索の過程で不必要な情報にも触れ、多様な考え方や物の見方を知り、また違った意見の人の書き込みを読んだり、直接議論するなど「やりとり」して、より精度の高い「集合知」を作り出し、ここから情報を得られることです。その利点を捨ててチャットGPTに頼れば、AI情報を丸呑みするだけになります。
しかもチャットGPTの情報って基本「デマ」なんです。
よくネットのやりとりで「ソース(情報源)は?」と聞いて、その情報が正しいかを確認するでしょ。ところがチャットGPTは、ネット上の情報をサンプリングしながら文章という形で上書きしますから、ユーザーはAIが、どの情報源をベースにしているか、それをどう改ざんしたのか、知ることが出来ません。
ソースは「AI」であって第三者が確認できない情報源という意味でいえば、チャットGPTがもたらす情報はすべてデマ(フェイク)となります。
たちが悪いのは、そのデマが思わず「信じたくなる」「こんな情報をしりたかった」とピンポイントで刺さってくるところにあります。そうなるとようユーザーがAIを育てていますし。
つまりチャットGPTとは、自分(ユーザー)の趣味趣向や思考性を事前学習で把握させて、プロ並みのテクニックであなた好みの「デマ情報」を提供するシステムとわかります。
ここを理解すれば、イーロン・マスクが反対した理由も見えてきます。
事実、チャットGPTが普及してけば、間違いなく人間は一気にバカ化していきますよ。
(中略)
チャットGPTは、SNSへ「心に刺さる」書き込みもできますし、インパクトのある選挙集会などの映像や動画の改ざん、あたかもニュースのように仕立てた情報の拡散なんてお手のもの。ネットに溢れる情報がAIによるデマなのか、本当に人が書いた意見なのか、判別できない状況になりかねないのです。
安易なAIの普及は民主主義どころか、人間社会の根幹が揺るぎかねないんですけど、こんなもんを何も考えず、官民挙げて普及させようとする岸田政権・・・・。すでに思考を停止してバカ化が極まっているんでしょうかね。
(「紙の爆弾」」2023年8月号p39)この末期的症状を予想すると、ネット上にある言論は、すべて信用できなくなる事態になる。
そうなると、書籍文化の復権になるかもしれない。
なにせ、チャットGPTは、たくさんのコピーを情報処理し、その繰り返し。
つまり、コピーのコピーのコピーということになる。
引用の明示というのは、まずないから、上記引用文にあるように、チャットGPTは、デマの塊。
誰も信じなくなる。
こんなニュースもある。
記事には、「あくまで参考値で、判断は人間がしている」となっているが、どうかな。
たぶん、実験したんだろう。
https://news.yahoo.co.jp/articles/7a725d1393f272620552c5ff949aa725ddbce48f(「
Yahoo!ニュース」)
「紙の爆弾」の別のページには、AIリスクとして、いろいろ書いてある。
まるで、今月号は、「AI」の流行に騙されるな、とやっているようなものだ。
簡単に羅列しておく。
サイバー攻撃のためのAIシステムの設計。
AIシステムへ核ミサイル発射の決定権を与える。
医薬品開発のためのAIシステムで、生化学兵器の設計する。
AIによる自動報復戦争システム。
人間を騙すAIシステムの設計。
権力を握る方法を考えるAIシステムの設計。
(前掲書p109)これらのAIシステムは、今後各国で構築するだろう。
他国に先行され、支配されたくないからだ。
仮に、これらを構築しないと世界各国で合意できたとしても、無分別な馬鹿者”悪意ある人物”が構築する可能性がある。
たとえば、ウクライナを陥れたアメリカのビクトリア・ヌーランドなど、完璧にそうだ。
スマホの次は、AI、チャットGPT。
こんなものがなければ、人間は、幸せになれないのかよ。
アホらし。
posted by T.Sasaki at 20:24|
Comment(0)
|
TrackBack(0)
|
日記
|

|