AI
オープンAIが高度な問題解決能力を備えた新しいo1モデルを発表、乱用リスクに警告
OpenAIはo1モデルで大きな技術的進歩を遂げましたが、特に生物兵器の開発に関して、悪用のリスクが高まる可能性があると警告しています。
OpenAIは木曜日にその最新のo1モデルを発表し、論理的思考、問題解決、科学的質問への回答の分野で重要な進歩を提供します。これらのモデルは、人間の思考能力に到達する人工汎用知能(AGI)の開発への重要な一歩とみなされています。
付随するシステム図では、AIの機能を説明しながらも、新しいモデルによりテクノロジーの悪用、特に生物兵器の製造に関するリスクが「著しく増大」していることをOpenAIが認めている。同社は初めて、化学、 生物、放射線、核(CBRN)兵器に関して、中程度のリスク評価をモデルに対して付与した。これは、テクノロジーが専門家の生物兵器開発能力を大幅に向上させたことを意味する。
以下の見出しを日本語に翻訳してください:
高度な AI ソフトウェアは段階的な論理的推論を実行する能力を持ち、専門家によれば悪用の可能性が高まっている。世界有数の AI 研究者の一人である Yoshua Bengio は、このリスクを最小限に抑えるために法的規制の緊急性を強調した。彼は、企業が生物兵器開発のための AI の使用を防ぐために安全対策を講じることを要求するカリフォルニア州の法案に言及した。「AI が AGI に向かって進歩するほど、適切な保護措置がない場合のリスクは大きくなる」と Bengio は警告した。
現在、Google、Meta、Anthropic のようなテクノロジー企業も先進的なAIシステムの開発に取り組んでいます。これらのAIエージェントは人々がタスクを遂行するのを支援し、AI開発の莫大なコストに直面する企業にとって潜在的に有利なビジネス機会も提供します。
ミラ・ムラティ氏、OpenAIの最高技術責任者、Financial Timesに語る