その時、サム・アルトマンはOpenaiiのカウンターキャプチャ監査を求めました

ダリオ・アモディAIセキュリティチームは、Sam Altmanのいくつかの行動で成長していました。 2019年にMicrosoftのOpenaiがインクになった直後に、彼らの多くは、AltmanがMicrosoftで行った約束の限界を発見するためにun然としました。取引の条件は、彼がAltmanから理解したものと一致しませんでした。 AIセキュリティの問題が実際にOpenaiのモデルで発信されている場合、彼らはモデルの展開を防ぐために心配しています。不可能ではないにしても、それはより困難になります。 Amodeiの条件は、Altmanの誠実さについて深刻な疑念を抱き始めました。 「私たちは皆実用的な人々です」とグループの人は言います。 「私たちは明らかにお金を集めています。私たちは商業用品をするつもりです。あなたがサムのような取引の重みを作る人であるなら、それは非常に適切に思えるかもしれません。そして、もしあなたが私のような人なら、あなたはあなたのようです、「私たちは私たちが完全に理解していない何かのビジネスをしています」。それは私たちを不快な場所に連れて行くようです。 それは、会社のさまざまな問題に関するペースの高まりを背景にしたことでした。 AIセキュリティチーム内では、強力な間違ったシステムが破壊的な結果につながる可能性があると彼が強化する証拠として見たという事実に焦点を当てていました。特に奇妙な経験により、それらの多くが緊張していました。 2019年、GPT 2の後に訓練されたモデルの多数のパラメーターを使用して、研究者のグループがAmodiが望んでいたAIセキュリティ作業を追求し始めました。人間の反応から強化をテストして学習をテストする(RLHF)は、モデルを陽気でポジティブな素材を生成し、積極的なものから遠く離れていることを導く方法です。 しかし、深夜、研究者は、RLHFプロセスを一晩離れる前に、彼のコードに単一のタイプミスを含むアップデートを作成しました。このタイプミスは重要でした。それは、RLHFプロセスの逆に機能するプラスのサインに反転したマイナスサインでした。 もっと 低い代わりに攻撃的な材料。翌朝までに、TypoはHavocを破壊し、GPTと2はそれぞれのプロンプトが非常に醜くて性的に明確な言語で各プロンプトを完成させていました。それは陽気でした – さらに関連していました。エラーを特定した後、研究者はOpenaiのコードベースをコメントで修正にプッシュしました。ユーティリティを最小限に抑えないでください。 スケーリングだけでより多くのAIの進歩をもたらす可能性があるという感覚の燃料の中で、多くの従業員は、異なる企業がOpeniの謎を持っている場合に何が起こるかを心配しています。 「私たちの商品の仕組みがご飯の発疹にどのように書かれるかの秘密」と彼らはお互いに言います。 規模、このため、彼らは悪い俳優の手に強力な能力の着陸を心配していました。リーダーシップはこの恐怖に屈し、しばしば中国、ロシア、北朝鮮の脅威を高め、アメリカの組織の手に渡るAGI開発の必要性を強調しました。多くの場合、これはアメリカ人ではない従業員をランク付けしました。昼食時に、彼らはなぜそれがアメリカの組織であるべきなのか疑問に思うでしょうか?元従業員は覚えています。なぜヨーロッパではないのですか?なぜ いいえ…

ピーター・ティールとエリザー・ユドコフスキーとの関係がどのようにAI革命を始めたのか

外国人コミュニティの2人のメンバー、インターネット起業家のブライアンとサビーン・アトキンスは、1998年に外国人メーリングリストで会い、すぐに結婚しました – 2000年に彼は人工知能の生態系研究所であるユドコフスキーのシンクタンクを管理したというメッセージによって。 21歳で、Yudkovskiはアトランタに移り、年間約20,000ドルの非営利給与を引き出し始め、慈善団体の監督のメッセージを促進しました。 「非常に賢いことは自動的に良いと思った」と彼は言った。しかし、8か月以内に、彼は自分が間違っていることに気づき始めました – 彼が間違っていた方法。はい、彼らは、破壊があるかもしれないと決めた。 「私は服用していました 他の誰かのお金、そして私は私を助けてくれる人々に対して非常に深い責任感を感じる人です、「ユドコフスキーは説明しました。」ある時点で、「監督が正しいことを自動的に決定しない場合、それは本当の正しいか間違っているか、状況が気にするのか?」私はそうだった、「わかりましたが、ブライアン・アトキンスはおそらく監督に殺されたくないでしょう。」 「彼はアトキンスが「フォルワック計画」を好むかもしれないと思ったが、彼が座って1人と仕事をしようとしたとき、彼はそれが不可能だと恐ろしく感じた。」これにより、私は根本的な問題に本当に関与するようになり、それから私はすべてについて完全に間違っていることに気付きました。 、 エトキンスは理解しており、研究所の使命は人工知能の作成から人工知能を作成することに触発されました。 「私たちが有利なAIの問題を解決するために必要な部分である彼は、AIの研究者を正しい料金に任命する方法で障害を与えましたが、そうするためのお金がなかったこともありました」とYudkovskyは言いました。代わりに、彼は新しい知的構造を設計し、それを「合理主義」と呼びました。 (その顔において、合理主義は、人類が正しい答えに来る理由を使用する力を持っているという信念であり、時間の経過とともに、著者がOGのブレンドンの言葉で、「還元、唯物論、唯物論、道徳的非機能不全、功利さ、Yadvis、Yadakvis、Yadaks、Yadakms、age binoronの言葉で、OGブレインの言葉で」という言葉を説明するようになったという信念です。 Yadakvis、それは「Eliezer Yudkovskyは完璧なカリフォルニアです。」) 2004年の論文「コンサート化された外脚のウォリシャン」で、ユドコフスキーは、私たちがAIが望んでいると思うものではなく、私たちの最善の利益のために実際に起こることは、友好的なAIが開発されるべきであると主張しました。彼は、「エンジニアリングの目標は、人類が何を望んでいるかを尋ねること、または私たちがもっと知っているなら、私たちが望んでいた人や一緒に育った人がもっともっといる人がもっといることなどを決定することだ」と言った。彼は書いた。 2005年、Yudkovskiは、1980年代に設立されたナノテクノロジーを追求するテクノロジーシンクタンクであるForceite Instituteが主催するサンフランシスコレストランでのプライベートディナーに参加しました。…