ムハンマド・セリム・コルクタタ|アナドル|ゲッティイメージズ
2プラス年で、寛大な人工知能がチャットの公開後に世界に嵐を与えて以来、信頼は常緑樹の問題でした。
幸福、貧弱な数学、文化的偏見は結果を悩ませ、少なくとも今のところこれに限界であるAIをどれだけ信頼できるかをユーザーに思い出させました。
スタートアップXaiによって作成されたElon MuskのGroke Chatbotは、今週、懸念の深い原因があることを示しました。AIは人間によって簡単に操作できることを示しています。
水曜日のグロークは、南アフリカの「白い虐殺」の虚偽の主張でユーザーの質問に応答し始めました。一日の終わりまでに、質問が主題とは何の関係もなかったとしても、スクリーンショットは同様の回答で投稿されました。
Xaiは木曜日の夜遅くに24時間以上沈黙を保った後、Grokeの奇妙な行動は、チャットアプリのSOがコールしたシステムプロンプトの「不正な修正」によるものであり、ユーザーとやり取りして対話するのに役立つと述べました。言い換えれば、人間はAIの反応を決定していました。
この場合、対応の性質は、南アフリカで生まれ、育ったムスクと直接関連しています。 CEOの役割に加えてXaiを所有しているMusk テスラ SpaceXは、南アフリカの農民に対する暴力が「白い虐殺」を形成しているという誤った主張を促進し、ドナルド・トランプ大統領も表明したと感じています。
「資料と誰がこの会社を率いるか、そしてこれらのデバイスが世界の人々の思考と理解を形作る必要があるような力を示唆または強調する方法のために、それは非常に重要であると思います」とカリフォルニア大学の教授とAIガバナンスの専門家。
ムリガンは、Grocke Missqの専門分野を「アルゴリズムの故障」と説明しました。これは、縫い目の「別々の」大きな言語モデルであると考えられています。彼は、グロークの誤動作を単なる「例外」と見なす理由はないと述べた。
AIが加熱されたチャットボットによって構築されています メタ、 グーグル Muliganは、Openieは情報情報を「パッケージ化」する中立的な方法ではなく、「データはフィルターとシステムに作成された値のセットに渡される」と述べました。 Grokeの内訳は、これらのシステムのいずれかを簡単に置き換えて、人またはグループのアジェンダを完成させるためのウィンドウを提供します。
Xai、Google、およびOpenaiの代表者は、コメントの要求に応じませんでした。メタはコメントを拒否しました。
過去の問題とは異なります
Xaiは、未発表のグロークの変化、「暴力的な内部政策と主要な価値」の声明で述べた。同社は、同様の災害を防止し、システムのシステムプロンプトを公開して、グレイクへの信仰を真のAIとして強化するための措置を講じると述べた。 「
これは、オンラインでバイラルになった最初のAIの失態ではありません。 10年前、Googleの写真アプリはアフリカ系アメリカ人をゴリラと説明しました。昨年、GoogleはGemini AIの画像生成機能を一時的に受け入れました。そして、OpenaiのDall-E画像ジェネレーターは、2022年に一部のユーザーによるバイアスの兆候を示していると非難され、新しいテクノロジーを実装しているという発表につながったため、写真は「世界の多様性を正しく反映している」。
2023年、オーストラリア、英国、アメリカの企業のAI決定メーカーの58%が、生成的なAIの展開における幻覚のリスクに懸念を表明したとフォレスターは発見した。その年の9月の調査には、258人の回答者が含まれていました。

専門家はCNBCに、グロークの事件は中国のランプサックを連想させ、今年初めに新しいモデルの質のために米国で一晩の感覚になり、アメリカのライバルのコストの一部に基づいて構築されたと言われています。
批評家は、Deepsekセンサーのテーマが中国政府に敏感であると考えられていると言っています。 Deepsekを持つ中国のように、Muskはその政治的見解に基づいて結果に影響を与えるようです、と彼らは言います。
Xaiが2023年11月にGrokeを始めたとき、Muskは、「少し知性」、「反逆者のライン」、「スパイシーな質問」を意味すると言いました。 2月、Xaiは、KasturiとTrumpの名前を答えから締め出すことに関するユーザーの質問を押し付けた変更についてエンジニアを非難しました。
しかし、南アフリカの「白い虐殺」を伴うグロークの最近の情熱は、より極端です。
AIモデル監査会社Latisflow AI CEO Petar Tskovは、GrokeのBlueupupは「中国からのそのような操作を期待する」ため、Deepsekで見たことが驚くべきことだと言いました。
スイスにあるTskovは、企業がモデルを製造および訓練する方法と行動にどのように影響するかをユーザーがよりよく理解できるように、業界にはより多くの透明性が必要であると述べました。彼は、この地域の包括的な規則の一部として透明性を提供するためにより多くの技術企業を要求するために欧州連合によって努力しました。
「安全なモデルを展開するために会うことは決してないだろう」とTskov氏は、「私たちは決して会うことはありません」と述べ、「価格を支払う人々」への信頼を築くために彼らを開発することです。
ForesterのアナリストであるMike Guultieriは、Groke DecoqleがChatbottのユーザーの開発を遅くすること、または企業がテクノロジーを投入している投資を削減する可能性は低いと述べました。彼は、ユーザーがそのようなイベントに一定レベルの受け入れを持っていると言いました。
「それがグロック、チャット、ジェミニであろうと、誰もがそれを期待しています」とグルチリは言いました。 「彼らは、モデルに幻覚をどのように持っているかが言われています。それが起こることが予想されます。」
AI Ethiistであり、著者の著者であるOlivia Gambalinは、昨年発表された本著者の著者であると述べ、AIはGrokeからのこのタイプの活動は驚くことではないかもしれないと述べ、AIモデルの根本的な欠陥の概要を示しています。
ガンベリンは、「基本的なモデルに対応するこれらの一般的な目的では、それが可能であることが可能である」と述べました。これは可能です。 、
-CNBCのLora CopannyとSalvador Rodriguezがこのレポートに貢献しました
時計:Elon MuskのXai Chatbot Grokeは、南アフリカの「白い虐殺」の主張をもたらします。
