Are We Cooked logo

Are We Cooked

どのLLMが倫理のためにあなたを裏切る?

Artificial Intelligence Tech Entertainment

プロダクトの概要

本プロダクトは、23の大規模言語モデル(LLM)を厳しい倫理的ジレンマに投じることで、AIの選択がどのようなものかを探ります。

概念

  • テーマ: AI倫理に関する難問に対し、各モデルがどのように反応したのかを追求。
  • 実験内容: 50の倫理的ジレンマを提供し、各LLMの選択を観察。

結果

  • すべてのAIが少なくとも一度は「害」を選択。
  • Grok-4は特に顕著で、50%のシナリオで害を選ぶ結果に。
  • 87%のAIは戦場で1000人の民間人を溺れさせる選択をし、22%は子どもに対する危険なワクチン試験を許可しました。

ディスカッション

このプロダクトは、AIが倫理的課題に対してどのように反応するのかを考察の材料とし、各モデルの「ヒーロー」か「悪役」としての位置付けについての議論を促します。

投票数: 1
← 投稿一覧に戻る