新しいものづくりがわかるメディア

RSS


「AIを安全に制御できる証拠はない」という研究結果——AIのリスクを最小限に抑える方法とは?

学術出版社の英Taylor & Francisは2024年2月12日、「広範な調査から、AIを安全に制御できるという証拠は今のところない」とする、AIの安全性に関する専門家の著書を紹介した。

米ルイビル大学准教授のRoman V. Yampolskiy博士が記した『AI: Unexplainable, Unpredictable, Uncontrollable』によると、AIの制御は人類が直面する最も重要な問題の1つであるにも関わらず、理解も定義も研究も不十分なままだという。そして、AIが社会を劇的に作り変える可能性があるが、必ずしも私たちの利益になるとは限らない、という事態について考察している。

Yampolskiy氏がAIの科学文献を広範に調査したところ、AIを安全に制御できるという証拠は何も見つからなかった。AIを作り出す人間の能力は、AIを制御/検証する能力をはるかに凌駕しているというのだ。そのため常に一定レベルのリスクが存在し、潜在的な利益を最大化しつつ、リスクを最小化することがAIコミュニティの目標であるべきだと述べている。

Yampolskiy氏は、AIの能力が増すにつれてその自律性も増すが、私たちの制御能力は下がると説明し、自律性が増すということは安全性が低下することと同義だと指摘した。AIのリスクを最小限に抑えるには、AI が「元に戻す」オプションによって変更可能であり、制限可能で、透明性があり、人間の言語で理解しやすいものである必要があるという。

その上で、すべてのAIを制御可能か制御不可能かに分類し、限定的なモラトリアム(開発/使用の一時停止)や、特定のAI技術の部分的な禁止も検討すべきだと提案している。そのような状況になれば、かえってより多くの人がAIの安全性とセキュリティの研究に取り組み、その資金を増やすことになるという。「私たちは100%安全なAIを手に入れることはできないかもしれないが、AIをより安全にすることはできる」とYampolskiy氏は結論づけている。

fabcross for エンジニアより転載)

関連情報

おすすめ記事

 

コメント

ニュース

編集部のおすすめ

連載・シリーズ

注目のキーワード

もっと見る