AIリスクを甘く考える日本人

 生成AI、会話型AIの急速な普及により、欧米ではAIの抱えるリスクについて真剣な検討が始まっています。それも、AI開発や使用時における各種の規制をするために、法律を作るという所まで進んでいます。アメリカでも法律にするかどうかは別として、何らかの規制の必要性は認められています。さて、脳天気な我が国日本は、まるでとんちんかんな反応を見せています。なにしろ、『規制などもってのほか自由にやらせて新しい産業を生み経済を活性化させよう、欧米が規制しようとしている今がチャンスだ』と言うのですから。相変わらずどうしようもない知性の劣化ですね。

 セキュリテイ意識がまるでない
 目先の利益ばかりに心を奪われる
 欧米の規制など、世界の標準化に参加しない、出来ない
 軍事AIなどを開発しないからAIの本質が理解出来ていない

 このような気質から来る問題点が、垣間見えます。AIの歪んだ進展が、人類にとってどれほど実際的な脅威であるか、まるでわかっていないのです。
 簡単な例を示しましょう。
 ウクライナ戦争で非常に多く使用されるようになった兵器としてドローンがあります。このドローンで的を見つけたら爆弾を落として殺害する事は今も行われています。ですが、これは関節であれ直接であれ、人間が目で見て確認したあとで相手を殺害しているわけです。しかし米中などAI先進国は、これをAIにやらせようとしています。人間の支持無く、AIドローンが自律的に敵領域に飛んでいって、敵兵を見つけたら攻撃するわけです。この時財前戦で敵味方が入り乱れていたらどうでしょうか。敵味方識別装置など個々の兵隊がもっていません。兵士か民間人化の区別も武器を持たなければ判別困難でしょう。AIドローンはそこにいる人と判断した目標物をすべて攻撃してしまいます。
 ま、この例は識別機能の向上などで改善されることでしょうが、このようにAIの判断とは人間の行う物とは別物だと言うことです。映画ではないのですが、目的達成の為に邪魔する物を殺せと指示していたら、敵味方なくすべての人間を邪魔だと認識する事はあり得ることなのです。悪意をもって人間を攻撃させているわけではないのです。指示内容を忠実に実行することが、予想だにしない結果を招くという例示なのです。

 また人間に代わって何らかの業務を遂行するようになったとき、テロリストのハッカーがAIに巧妙な指示を与えることで、社会を混乱させたり、誤った情報を流布させることなど意図もたやすく出来るわけです。しかも自分達は、直接的に何も手を下さずにです。つまりスパイも失業しかねないのです。すでに軍事において、指揮官に代わって状況を分析し命令を出す軍事戦略のAIは、実用化されて一部では使用されています。

 このようにAIのリスクとは、単に仕事がなくなるというだけではないのです。ほかにも、子供の時からAIが答えを教えてくれる環境で育った人間は、自分の考える能力を失います。そういう人間がはたして、AIを適切にコントロール出来るのでしょうか?この人間の知能の格差社会は、想像するのも恐ろしい世界です。

 こんな素人でもわかることすら思い至らない今の多くの日本人は、すでにこの知能格差社会の住人なのでしょう。世界標準を作ることが出来ない日本が、このAI規制に関わる標準化でも、カヤの外に置かれたとき、その損失は考えたくもないほど大きな物になると思います。AIの実用化をやめろというのではありません。アクセルとブレーキ、この事柄ではその両方を使う必要があると言いたいのです。

 AIのリスクにはどのような物があるか、皆さん自身でAIに聞いてみてください。今はまだ隠さずに教えてくれますから。

令和5年6月3日(土)

2023年06月03日|分類:安保, 政治, 文化, 科学