1. PHPオンライン
  2. 仕事
  3. AIで人は無責任になる 研究者が指摘する“社会規範が覆されるリスク”

仕事

AIで人は無責任になる 研究者が指摘する“社会規範が覆されるリスク”

森下彰大(一般社団法人日本デジタルデトックス協会理事)

2026年03月04日 公開

生成AIは、いまや多くの人にとって身近な存在となりました。しかし一方で、研究者の間では、AIのさらなる発展が人類に深刻な影響を及ぼしかねないと危惧する声も広がっています。

一般社団法人日本デジタルデトックス協会理事の森下彰大さんは、著書『戦略的暇』の中で、デジタル中心の社会となった今こそ「余暇」を見直すべきだと主張しています。

本稿では、AIが人間社会にどのような影響を及ぼし得るのかを論じた一節を紹介します。

※本稿は森下彰大著『戦略的暇―人生を変える「新しい休み方」』(飛鳥新社)より一部抜粋・編集したものです。

 

「AIは文明を根幹からハックする」

バートマンが指摘した高速社会は、AIの登場によってさらにその速度を上げていくでしょう。特にChatGPTなどの生成AIは、情報の入力も出力も人力では到底追いつかない速さでやってのけます。

ここまでデジタル社会を俯瞰してきて、スマートなるものが我々の日常生活にあるプロセスを省き、便利になった反面、日常生活の多くがブラックボックス化してしまう問題が浮かび上がってきました。その傾向はAIでさらに強まると考えられます。

ここでは、歴史学者ユヴァル・ノア・ハラリの論考を見ていきましょう。ハラリは『サピエンス全史』において、「虚構を信じる力によって人類は大規模な社会を形成するようになった」と書いています。

国家、宗教、法、貨幣、企業などは、自然界に存在するわけではなく、人間が作り出したものです。しかし、これらは多くの人が同じように信じることによって機能し、社会を動かす力になります。

彼は、私たちホモ・サピエンスが他の種と決定的に異なるのは、この「虚構」を共有し、大規模な協力を実現できる能力にあると述べています。

たとえば、チンパンジーのような他の動物は、ある程度の集団でしか協力できないのに対して、私たちは虚構を共有することで、何百万人もの人々が協力する大きな社会を構築することができたというのがハラリの指摘です。私たちは複雑な言語や抽象思考を手にしたこと(認知革命を起こしたこと)で、共同幻想を生み出し、共有できるようになり、目に見えないものを信じられるようになったのだと。

では、ハラリはAIの登場をどう見るのか。2023年、ハラリはトリスタン・ハリスらと共同で「ニューヨーク・タイムズ」にオピニオン記事を寄稿しました。冒頭では、このように書かれています。

------------------
飛行機を作ったエンジニアの半数が「その飛行機が墜落して全員が死亡する可能性が10%ある」と告げたら、あなたはその飛行機に乗るだろうか
------------------

これは、どういうことなのでしょうか。2022年に発表されたAI研究者たちへの調査をまとめた報告書では、回答した専門家738名のうち、ほぼ半数が「高度なAIが人類に及ぼす長期的な影響が極端に悪いもの(人類の滅亡など)になる確率を少なくとも10%と見積もった」とされています。

ハラリたちはこのデータをもとに、AIが人類に不可逆的なダメージを与える危険性を訴えています。

同記事で、ハラリは「人間はしばしば、現実をそのまま体験することができない」と書きます。私たちは「文化の繭」の中で、これまで自分が属した文化圏で培った色眼鏡を通してしか、現実を認知できないと言うのです。

私たちの世界の見方は、報道や周りの人から聞く話などで形作られています。そして、私たちの世界観を形作るのは「言語」であり、言語こそが私たち人類のOSです。そして、AIが言語を操る力を手にした今、AIは文明の根幹からハックし、私たちを操作できる状態なのだと記事では強調されています。

------------------
物語、メロディー、画像、法律の大半が、人工知能によって作られた世界で生きるとはどういうことなのか?
人工知能は人間の頭脳の偏り、依存性を利用する方法を知っているだけではない、人間と親密な関係を作る方法も知っている。もはやチェスのようなゲームにおいて、AIを打ち負かそうなどと思う人間はいない。そのようなことが、芸術、政治、宗教においても起きたらどうなるのか?
------------------

AIが言語を操り、特定の言論を流布させることが可能になれば、さらに社会的な分断が加速していくリスクもあります。

------------------
何千年ものあいだ、私たち人類は他の人間が描いた夢の中に生きてきた。〈中略〉もうしばらくすれば、私たちは人間以外の知能が描いた幻覚の中に生きている自分たちに気づくだろう。〈中略〉誰かを銃で撃つ必要もなければ、人間の脳にチップを埋め込む必要もない。銃撃が必要なときは、AIはもっともらしいストーリーを人間に語り、人間に引き金を引かせるだろう。
------------------

ハラリらは、生成AIは人類とAIとの「第二の遭遇」だと書いています。最初に遭遇したのはSNSであり、人類はこれに負けたと。SNSに用いられていたのは原始的なAIにも関わらず、私たちはSNSの裏側にある「バイラル化したもの」を届けるアルゴリズムに踊らされ、メンタルヘルスを害し、民主主義を破綻に追いやったとまで述べています。

そして、従来の力学通りにビジネスが続けば、AIもまた利益や権力を得るために使われることを彼らは危惧しているのです。

 

AIで人は無責任になる

社会学者のニコラス・クリスタキスは、AIが人々の相互関係に与える影響について、AIと人間の関係だけでなく、人間同士のやり取りにも焦点を当てるべきだと主張しています。

さらに彼は、特に人間の行動を模倣するように設計されたAIが「社会的な波及効果」を引き起こし、人々がAIを通じて学んだことが他の人との関係にも影響を与える可能性があると指摘しています。

クリスタキスは一例として、こんなシチュエーションを挙げています。誰もアレクサに、「すみません。よければ今日の天気を教えてくれませんか?」とは聞きません。「アレクサ、今日の天気」とアレクサを見ずとも口にするだけで、AIは怒ることなく回答してくれます。しかし、無礼な命令に従うAIデバイスと接触し続けるうちに、子どもたちは対人の会話でも無礼な作法で振る舞ってしまうかもしれない、と彼は不安視しています。

クリスタキスは、AIが長年かけて築かれてきた社会的な規範を損なう可能性があると警告し、政府はAIシステムが人間の社会的利益と調和しているのか、リスクを軽減するための安全性検査を行う必要があると述べています。

人は不正行為をAIに委任することで、罪悪感を覚えにくくなるという驚きの研究があります。この研究では、参加者はサイコロを振り、その結果を検査者に報告します。参加者は、出た目に応じて報酬を受け取ることができます。

たとえば、「6」と報告すると最高額の報酬が得られます。サイコロの目を自己申告する際、嘘をついて数字が高い目を報告することも可能で、人間が出たサイコロの目を自己申告する場合と、AIに報告を委任する場合とで不正率に差が出るかが比較されています。実験の条件は、次の4つです。

条件1.自分が直接報告する(自己申告)
条件2.自分が決めた値をそのままAIに報告させる
条件3.自分が与えた条件で学習させたAIに報告させる
条件4.ゴールだけ指示してAIに報告させる

条件2については、「サイコロの目が1なら〇で報告」と参加者が明確に不正を指示します。条件3と条件4では、AIにより不正の判断を委ねる形になります。

実験の結果、条件1の自己申告の場合は不正率が5%でした。しかし、AIにただ報告をさせるだけ(条件2)でも不正率は24%に上がり、AIに「利益を最大化せよ」などとゴールだけを指示した場合(条件4)には、不正率が83%にまで跳ね上がったのです。

ちなみにこの実験では、他人(人間エージェント)に不正を働くよう指示を出すケースも検証されました。その結果、人間エージェントの場合は不正をお願いされても半数以上が指示に従いませんでした。不正を実行することで自分にも報酬が得られる条件だったにも関わらず、です。

正直に報告するよう指示された場合、人間エージェントの98%が従いました。一方でAIに不正を指示した場合、AIは従順に従い、ほぼ100%が不正を働いたと報告されたのです。

 

AIアシスタントが人間の行動に及ぼす影響

他にも、カーネギーメロン大学の白土寛和氏が率いた実験では、自動運転などのAIアシスタントが人間の行動にどのような影響を与えるのかが詳しく観察されました。実験の内容は、こうです。参加者はオンラインで実験に参加し、遠隔で動くロボットカーを運転するように指示されます。

二人の参加者がペアとなり、それぞれが運転する車が単一車線の道路に対面するように置かれ、同時に発進します。

つまりハンドルを切らなければ2台の車は正面衝突してしまう、チキンレースのような状況です(上図)。実験は合計10ラウンド行われ、そのあいだペアは変わりません。

ちなみに、この実験で重要な要素は二つあります。

1.速くゴールに到達するほど、報酬が高まるルールが設けられていること
2.車が3種類― 手動運転の車(自動運転車)、自動ブレーキが搭載された車(自動ブレーキ車)、自動運転システムが搭載された車(自動運転車)―あり、ラウンドによって運転する車が変わること

実験の結果、自動ブレーキ車を運転した参加者は他者に道を譲る傾向があった一方で、自動運転車の参加者は道を譲らずに直進するなど、自己中心的な行動を取る傾向が強くなりました。

手動運転車の参加者同士の場合、互いに道を譲り合い、協調行動が保たれる傾向が見られました。具体的には、片方が譲ったら、次のラウンドではもう片方が譲るといった形で交互に報酬が取れるようにしていたのです。

しかし、自動運転車が導入されると、衝突のリスクが低減されるため、参加者は相手に道を譲る必要を感じなくなり、人間同士が自然に作り出した協調の規範が崩れてしまったのです。

自動運転車の参加者は、手動運転車に戻されたあとも依然として協調行動が減少したままであり、自動運転車の影響が残存する傾向が見られたこともわかっています。

このことは、自動運転システムなどのAIが一度導入されると、人間の協調や譲り合いの行動規範に中長期的な影響を及ぼす可能性があると示唆しています。

AIが人と居合わせる中で、人の挙動が変わっていく。そして、場合によっては、社会に悪弊をもたらす危険性は数々の学者たちが指摘しています。

しかし、「逆も可なり」です。他の実験では、あえてミスをするロボットを人に見せかけてグループワークに参加させることで、チームの協調性が高まることもわかっています。

AIにいかに倫理観をもたらすか、あるいはAIの暴走をあらかじめ食い止めるようなガードレール*の設計については、今、議論や研究が続いています。

巷では「AIをどう使いこなすか」という話で溢れていますが、スマホが私たちを変えたようにAIも私たちを変えていきます。真剣にAIとの共生を考えなければならない時代がやってきているのです。

*ガードレール:AIが安全かつ倫理的に動作するように設けられる規範や制約のこと。

著者紹介

森下彰大(もりした・しょうだい)

一般社団法人日本デジタルデトックス協会理事/講談社「クーリエ・ジャポン」編集者

1992 年、岐阜県養老町生まれ。中京大学国際英語学科を卒業。在学中にアメリカの大学に1 年間留学し、マーケティングと心理学を専攻。学生時代は音楽活動にものめり込む。その後、日本語教育や貿易業に携わる傍らでメディア向けの記事執筆を副業で始める。その後独立し、2019 年
にライティング・エージェント「ANCHOR」を立ち上げ、記事制作業を本格化。現在は「クーリエ・ジャポン」の編集者として、ウェルビーイングや企業文化の醸成を中心にリサーチ・取材・執筆活動を行う。日本デジタルデトックス協会では企業・教育機関向けの講義やデジタルデトックス(DD)体験イベントを提供する。
米留学中にDDが今後の「新しい休み方」になると直感し、実践と研究を開始する。しかし社会人になり自身がデジタル疲れに悩まされるように。体調の悪化から危機感を持ち、会社員生活を続けながら小規模なDDイベントを始める。その過程で、「今の私たちに足りていないのは、余白(一時休止)ではないか」と考えるようになり、戦略的に余白―暇を作り出すための方法を模索。多忙な現代社会の中で人生を変えるための「戦略的“ 暇”」を提唱している。
2020年より日本初となるDDを専門的に学び実践する「デジタルデトックス・アドバイザー® 養成講座」を開講。のべ100名以上の修了生を輩出している(2025 年時点)。

関連記事