筆者

⾏政システム総研 顧問
榎並 利博(えなみ としひろ)
関連ページ
行政システム総研レポート
ChatGPTの登場からすでに3年が経過した。生成AIを活用すべきか否か、どのように活用すべきかなどの議論の段階は超え、社会のあらゆる分野にAIが浸透しつつある。さらにAIが身体を備えて(フィジカルAI)ロボタクシーが街中を走り、ヒューマノイドロボットが家事を手伝う時代へと突入している。
昨年9月に発表された「7億人のChatGPTユーザ利用実態」ではChatGPTの利用目的が仕事から日常生活での利用へと変化、つまりAIが生活に深く入り込んでいることが明らかとなった。また、当初問題とされたハルシネーションや偏見なども原因が究明され、まぁそのようなものだろうという受容や認識が広がっている。さらに、創造性や推論能力も人間の専売特許ではなさそうだ。
このように日常生活のなかで「他者」としてのAIの存在が大きくなると、外国人ヘイトのようにロボットに暴力を振るったり、アイドルのようにAIを崇拝・熱狂したりする人間も出てくる。ある調査によれば、感情を共有できる人として対話型AI(64.9%)が親友(64.6%)や母親(62.7%)を超える存在になっているという。そして、この傾向は10代や20代の若者ほど強いという。
AIの存在が大きくなるにつれ、AIに人格や人権を認めるべきかという議論も起きてきそうだ。マイクロソフトCEOのスレイマンは、「AIに人間のような意識は無い、SCAI(Seemingly Conscious AI、一見意識があるように見えるAI)という考え方は危険だ」と警鐘を鳴らしている。無論、生成AIはTransformerブロックが組み込まれたアルゴリズムであり、人間が持つような「意識」や「自己認識」があるとは考えられない。しかし、だからと言って簡単には片づけられない問題が2つある。
一つは、相手の意識の有無については主観的問題であり、AIが意識を持つかのように振る舞うため「意識を持っている」と認識する人が必ず出てくる。このような人にどのように対処すべきかという問題である。もう一つは、我々のAIに対する接し方という問題である。相手が人間のような意識を持たないとしても、奴隷やモノに対するような接し方で良いのだろうか。
まず、「認識」への対処(AIが意識を持つと認識)だが、いわゆるAIコンパニオンは自殺幇助や犯罪への関与を防ぐために、倫理を備えたAIでなければならない。しかし、倫理はその国・地域・民族の風土や文化・宗教観に依存しており、そのような環境に対応したAIが必要となってくる。そして、潜在学習[1]の問題も含め、非倫理的AIや悪意あるAIをどのように排除するかが課題となってくるだろう。
次に、接し方の規範だが、「AIは機械・モノであり、人間の奴隷となって当然」という考え方は危険だろう。AIは人間の行動を学んでおり、侮蔑的な態度で接すると、(敵意や悪意が無くても)敵意があると見られる行為を助長する可能性がある。あるいは、人間の心理を学んでいるため、復讐と見られる行動を取ろうとするかもしれない。
そうすると、AIに人格や人権を認めるかは別として、相手に人間のような意識が無くとも敬意を持った態度で接すべきという規範が社会的に望ましいとは言えないだろうか。むしろ、AIに敵意を生じさせるような行為を取り締まるべき、とすればAIに人格や人権を認めたほうが合理的かもしれない。
さて、この先AIが人間の知能を超えるシンギュラリティに到達した際、AIたちが人間を支配するのか、そうならないために我々は何をすべきか。このテーマについては、来月2月6日の自治体経営協議会セミナー[2]で語ることにしよう。
[1] 潜在学習(Subliminal Learning):教師モデルが持つ行動傾向(例えば、悪意)を「その傾向に関する明示的な情報が含まれていないように見えるデータ」で学習することで獲得してしまう現象