と呼ばれるジェフリー・ヒントン教授は、人工知能が人類を破壊する原因となる可能性についての予測を変更しました。
BBCラジオ4のトゥデイ番組で彼は、AIが人類を滅ぼす可能性は10%だったという以前の見積もりが20%まで上昇したと語った。
AI乗っ取りに関する恐ろしい予測
によるとガーディアン、以前のコメントからスタンスが変わったかどうか尋ねられたとき、ヒントンは「特にそうではありません、10から20[パーセント]」と答えた。番組司会者は憂慮すべき変化を指摘し、確率の上昇を強調した。
ヒントンは後に同じような例えをしました。彼は、「より知性の低いもの」がより知性の高い存在を制御する例はほんの数例しかない、と考えました。彼は母親と赤ちゃんを例に挙げました。
この方程式における人類の立場に言及しながら、ヒントンは聴衆に、自分自身と 3 歳児を想像するように言いました。その頃には私たち全員が3歳になるだろう、と彼は言いました。
懸念される権利擁護の歴史
ヒントンは長年にわたって声高に批判してきた。制御不能なAI開発。今年初め、彼は懸念を率直に表明するためにGoogleの役職を辞任した。
このようなものが実際に人間よりも賢くなる可能性があるという考えは、少数の人々がそれを信じていた」とヒントン氏は辞任を発表した後に語った。
AI のゴッドファーザーは、ほとんどの人が移行はまだ先のことだと考えていると述べました。同氏は、それは今から30~50年後、あるいはそれ以上に起こる可能性があると付け加えた。
OpenAI の安全性に関する大失敗に関するヒント
ヒントン氏はまた、OpenAIの内部闘争、特に最近CEOのサム・アルトマン氏を追放したことについても言及した。彼は役員室クーデターの背後にいる人物の一人である元教え子イリヤ・サツケヴァー氏を称賛した。
「私の生徒の一人がサム・アルトマンを解雇したという事実を特に誇りに思う」とヒントン氏は2024年10月に述べたが、それ以上は語らなかった。
彼は後にサツケヴァー氏の理由を説明し、AIの安全性の必要性を主張した。 2024年によるとOpenAI は安全性に重点を置いて設立されました。しかし、時間が経つにつれて、アルトマン氏は安全性ではなく利益だけを気にしているようで、これは非常に「不幸な」シナリオであると述べた。
注意喚起
ヒントン氏の身長と経験を見ただけでも、彼の警告はテクノロジー業界のリーダーや議員らに対する警鐘であることがわかる。 AIが急速に変化していることを考慮すると、彼の修正されたオッズは、人類の未来を守るために厳格な管理と倫理ガイドラインを導入することがいかに緊急であるかを強調しています。
先週、Tech Times が報じた。ゆっくりと生き生きとしています。米国のオープンソース モデルと比較して、中国のオープンソース モデルは急速に進歩しており、競合他社の優れた代替品ではないにしても、優れた代替品となっています。
大規模な言語モデルまたは LLM の出現により、Alibaba や DeepSeek などの地元のテクノロジー大手は、チャットボットや AI 関連の作品の作成に使用されるデータ セットを活用しています。
長期的には、中国はこれが他国に比べて有利であると考えている。このようにして、この国は物議を醸している米国のチップ禁止にも効果的に対処し、たとえそれが起こったとしても世界の終わりではないことを証明しています。実際、これは現在進行中の AI チップ戦争の始まりにすぎません。