- AI科学者たちは、人間が制御を失った場合のAIの潜在的な脅威について警告しています。
- 専門家たちは、リスクに対処するためのグローバルな緊急対策を採用するよう各国に促しています。
- 彼らは、AIの害に対抗するための先進技術の欠如を嘆いています。
AI科学者たちは、人工知能の潜在的な危険性について警鐘を鳴らしています。声明の中で、専門家のグループはAIに対する人間の制御が失われる可能性について警告し、グローバルに調整された規制システムの必要性を訴えました。
AI技術の開発に関与した科学者たちは、制御されない場合の潜在的な有害な影響について懸念を表明しました。彼らは、AIシステムを「制御し保護する」ための先進的な科学の欠如を強調し、「人間の制御の喪失やこれらのAIシステムの悪意ある使用は、人類全体に壊滅的な結果をもたらす可能性がある」と述べました。
関連記事: OpenAI、新しいAIモデルを発表、回答前に「考える」設計
ジョンズ・ホプキンス大学の法学者で教授のジリアン・ハドフィールドは、規制措置の緊急性を強調しました。彼女は、AIが人間の制御を超えた場合にそれを制御または抑制する技術の欠如を指摘しました。
グローバルな緊急対策の呼びかけ
科学者たちは、AIがもたらす脅威を特定し対処するために「グローバルな緊急対策」の必要性を強調しました。彼らは、AIの安全性が国際協力とガバナンスを必要とするグローバルな公共財であると強調しました。
専門家たちは、AIを規制するための3つの重要なプロセスを提案しました:
- 緊急対応プロトコルの確立
- 安全基準フレームワークの実施
- AI安全性に関する徹底的な研究の実施
新しい規制ガイドラインの採用の緊急性に対処する中で、専門家たちはAIの安全性が国際協力とガバナンスを必要とするグローバルな公共財であると述べました。彼らは、緊急対応プロトコルの確立、安全基準フレームワークの実施、AI安全性に関する十分な研究の実施を推奨しました。
世界中の国々が、AIの増大するリスクを軽減するための規制とガイドラインの開発に取り組んでいます。カリフォルニアでは、AB 3211とSB 1047の2つの法案が提案され、AIの潜在的な害から公衆を保護することを目的としています。AB 3211は、AIと人間が生成したコンテンツを区別することで透明性を確保することに焦点を当てています。SB 1047は、モデルによって引き起こされる潜在的な害についてAI開発者に責任を負わせます。
免責事項: この記事に記載されている情報は、情報提供および教育目的のみを目的としています。この記事は、金融アドバイスやその他のアドバイスを構成するものではありません。Coin Editionは、記載されたコンテンツ、製品、またはサービスの利用に起因する損失について責任を負いません。読者は、会社に関連する行動を起こす前に注意を払うことをお勧めします。