Openaiは、モデルが幻覚と「違法なアドバイス」についてどのように行うかを示します
サム・アルトマンのイタリアのオープンライの共同設立者兼CEOは、2024年9月25日にイタリアのトリノで、2024年のイタリア工科大学でオグラのオフィサーグランディ・リパルツィオーニで講演します。 ステファノ・グディ|ゲッティイメージニュース|ゲッティイメージズ Openaiは水曜日に新しい「セキュリティ評価ハブ」を発表しました。これは、人工知能モデルの安全性の結果を公に実証するWebページと、「憎悪な材料や違法なアドバイス」などの幻覚、ゲルブレイク、有害な材料のテストでどのように機能するかを公開します。 Openaiは、「安全性と展開に関する決定の一環として内部的に」、およびシステムカードが安全テストの結果をリリースすると、モデルが起動すると、OpenAIが「今から」継続的にマトリックスを共有すると、安全性を使用したと述べました。 Openaiは、Webページに次のように書いています。「私たちは、継続的な全社的な取り組みの一環として、安全性についてより積極的にコミュニケーションをとるためにハブを更新します」と、安全性評価ハブは完全な安全努力や指標を反映せず、代わりに「スナップショット」を示します。 CNBCが水曜日に前に述べた後、セキュリティについて警戒するように見える業界の専門家によると、技術企業が人工知能を前進させている方法は、研究で製品を優先していると報告されています。 CNBCは、Openaiおよびその他のAIラボで公開される前に、ストーリーでよく言及されていました。 OpenaiのCNBCニュースをもっと読んでください Openaiは最近、O1 AIモデルの最終バージョンで安全性評価を実行していないために、いくつかのオンライン論争を引き起こしました。 CNBCとの最近のインタビューで、Openaiiセキュリティシステムの責任者であるヨハネスハイデケは、同社はO1モデルの近いファイナルバージョンの準備評価を開始し、それらのテストがインテリジェンスやロジックに大きく貢献しておらず、追加の評価を必要としない後、モデルのマイナーな変更が行われたと述べました。 それにもかかわらず、Heideckeはインタビューで、Openaiが違いをより明確に説明する機会を逃したことを認めました。 メタこれは、CNBCのAIセキュリティと研究に関する報告でも言及されています。また、水曜日に発表しました。 同社の基本的なAI研究チームは、ロスチャイルド財団病院との新しい共同研究と分子発見を進めるために、オープンデータセットをリリースしました。 メタはブログ投稿で発表し、研究アドバイザーを発表しました。「研究を広く提供することにより、AIコミュニティへの簡単なアクセスを提供し、進歩を加速し、イノベーションを強化し、国家研究室を含む社会に役立つオープンなエコシステムを促進します。」 Source link