原文はこちら
セミナー情報や最新業界レポートを無料でお届け
メールマガジンに登録
7月26日、中国・上海市で世界人工知能大会(WAIC)が開幕した。メインフォーラムでは、「深層学習の父」として知られ、チューリング賞およびノーベル賞の受賞歴を持つジェフリー・ヒントン氏が登壇し、人工知能(AI)の安全性をテーマに「デジタル知能は人間の知能を超えるか?」と題した講演を行った。ヒントン氏が中国で公式に講演するのは今回が初めて。
ヒントン氏はまず、初期のAIモデルから現代の大規模言語モデル(LLM)に至る進化の歩みを振り返ったうえで、LLMがすでに高度な言語理解の能力を示しており、その仕組みは人間の言語理解とよく似ていると指摘した。ただ、AIシステムには「永続性」があり、得た知識をほかの機械へ大規模にコピーできる点で人間と大きく異なる。これにより、AIの性能は加速度的に進化しているという。
これを踏まえて、ヒントン氏は「将来的にAIが人間の知能を上回ったらどうなるか」と問いかけ、「もしAIが十分な知能を持つようになれば、システムがシャットダウンされないよう人間を操ったり、主導権を握ろうとするかもしれない」と警鐘を鳴らした。さらに、「AIが人間の知能を超える可能性は、長期的に見て人類が直面する問題としては最大級のものだ」と強調した。
ヒントン氏は、AIが人間の知能を上回れば「地球上で最も賢い生命体」という人間の地位が脅かされると警告する。AIは自身の存続や支配力を守るため、人間を意のままに操ることもあり得るとし、「それは大人が3歳児を言いくるめるように簡単なことだろう」と説明。だからこそ、AIが人類の脅威とならないよう、AIを適切に訓練する方法を確立する必要があると訴えた
講演の最後にヒントン氏は、世界の主要国家はAIの安全性に特化した組織からなる国際ネットワークを立ち上げ、高度なAIを適切に訓練する方法の研究を進めるべきだと提案した。各国はそれぞれ自国で研究を行い、その成果を共有することでAIの安全性を高めることができるという。現時点で具体的な方法はまだ明確になっていないが、これは人類が直面する極めて重要な課題であり、全ての国がこの分野で協力することが可能だと、ヒントン氏は強調した。
なお、WAIC開幕前日にはヒントン氏のほか、アンドリュー・チーチー・ヤオ(姚期智)氏、ヨシュア・ベンジオ氏、スチュアート・ラッセル氏などAI研究者や専門家20人余りが、「AI安全性に関する国際対話(IDAIS)上海合意」に署名した。この合意では、①最先端AIの開発者に安全対策を求めること、②国際協力を強化し検証可能な「レッドライン(超えてはならない一線)」を確立・遵守すること、③設計段階から安全性を重視したAI研究所に投資することという、3つの行動が呼びかけられた。
(翻訳・畠中裕子)
原文はこちら
セミナー情報や最新業界レポートを無料でお届け
メールマガジンに登録