時事/経済 PositiveNegativeFreeStyleArguments

”人類, もっと利口なこと相対した事がなくて三歳赤んぼうのようになってしまう”
利潤追求大企業牽制促求…解法で安全研究強制規制提案


取材陣質問に答えるジェプリヒントン教授<br />
(ストックホルム=連合ニュース) キム・ドフン記者 = 7日(現地時間) スウェーデンストックホルム王立科学翰林院で開かれた 2024 ノベル経済学上・化学上・物理学上受賞者共同記者会見でノベル物理学上受賞者

取材陣質問に答えるジェプリヒントン教授
(ストックホルム=連合ニュース) キム・ドフン記者 = 7日(現地時間) スウェーデンストックホルム王立科学翰林院で開かれた 2024 ノベル経済学上・化学上・物理学上受賞者共同記者会見でノベル物理学上受賞者であるジェプリヒントンカナダ討論土台名誉教授が取材陣質問に答えている. 2024.12.7superdoo82@yna.co.kr


(ソウル=連合ニュース) イシンヤング記者 = 人工知能(AI)の “大父”と呼ばれるノベル物理学上受賞者ジェプリヒントンカナダ討論土台教授がAIの危険性に対してもう一度警告して出た.

27日(現地時間) イギリス日刊ガーディアンによればヒントン教授はBBCラジオに出演してAI技術の急速な発展が人類に存亡を割る脅威になることができると憂慮した.

彼は技術変化速度が予想より “ずっと早い”とAIによって今後の 30年以内に人類が絶滅する可能性が 10〜20%にのぼると診断した.

彼は過去にも技術発展が人類に災い的結果をもたらす確率が 10%と主張した事があるのに暗鬱な確率数値をもっと高めたわけだ.

ヒントン教授は “人類は私たちよりもっと利口なことを相対して見た事がない”と “もっと知能的なことが不十分に利口なことによって統制される事例がいくらあるのか”と聞き返した.

であって “そんな事例はほとんどない”と “進化の力で赤んぼうがママを統制するのが私が分かる唯一の例”と言った.

彼はまた非常に力強いAIシステムに比べれば人間は乳児に過ぎないと “私たちは三歳の子供のようになること”とも見通した.

ヒントン教授は初めAI研究を始めた時はこの位に早く発展が成り立つか予想することができなかったと “大部分の専門家は 20年以内に人より利口なAIが開発されることで見ているのに, これは非常に恐ろしい見込み”と察してみた.

それとともに技術開発速度が自分の予想より非常に, ずっと早いと政府の規制必要性を促した.

彼は “利潤を追い求める大企業にだけ任せておくことは十分なのないこともある”と “大企業が安全のための研究をもっとたくさんするように強制する唯一の方法は政府規制だけ”と強調した.

ヒントン教授はAIマシンランニング基礎を確立した功労を認められて今年ノベル物理学上を受賞した.

AI分野の “開拓者”と呼ばれてGoogleから副社長まで勤めたが去年 4月Googleと別れた以後ではAIの危険性に対して公開的に警告しながら “内部告発者”(Whistleblower)でも殖やしている.

彼はAIが人類に狂う悪い影響を自由に警告するためにGoogleを去ったと明らかにしたしAIがすぐ人間を追い越して統制不能になることができる危険に対しても憂慮しなければならないと警告して来た.


30년 안에 인류 멸종 가능성…"AI 대부" 제프리 힌턴의 경고

"인류, 더 똑똑한 것 상대한 적 없어 세살아기처럼 돼버린다"
이윤추구 대기업 견제 촉구…해법으로 안전연구 강제규제 제안


취재진 질문에 답하는 제프리 힌턴 교수
(스톡홀름=연합뉴스) 김도훈 기자 = 7일(현지시간) 스웨덴 스톡홀름 왕립과학한림원에서 열린 2024 노벨경제학상·화학상·물리학상 수상자 공동 기자회견에서 노벨 물리학상 수상자

취재진 질문에 답하는 제프리 힌턴 교수
(스톡홀름=연합뉴스) 김도훈 기자 = 7일(현지시간) 스웨덴 스톡홀름 왕립과학한림원에서 열린 2024 노벨경제학상·화학상·물리학상 수상자 공동 기자회견에서 노벨 물리학상 수상자인 제프리 힌턴 캐나다 토론토대 명예교수가 취재진 질문에 답하고 있다. 2024.12.7 superdoo82@yna.co.kr


(서울=연합뉴스) 이신영 기자 = 인공지능(AI)의 "대부"로 불리는 노벨물리학상 수상자 제프리 힌턴 캐나다 토론토대 교수가 AI의 위험성에 대해 다시 한번 경고하고 나섰다.

27일(현지시간) 영국 일간 가디언에 따르면 힌턴 교수는 BBC 라디오에 출연해 AI 기술의 급속한 발전이 인류에 존망을 가를 위협이 될 수 있다고 우려했다.

그는 기술변화 속도가 예상보다 "훨씬 빠르다"며 AI로 인해 향후 30년 이내에 인류가 멸종할 가능성이 10∼20%에 이른다고 진단했다.

그는 과거에도 기술 발전이 인류에 재앙적 결과를 초래할 확률이 10%라고 주장한 바 있는데 암울한 확률 수치를 더 높인 셈이다.

힌턴 교수는 "인류는 우리 자신보다 더 똑똑한 것을 상대해본 적이 없다"며 "더 지능적인 것이 덜 똑똑한 것에 의해 통제되는 사례가 얼마나 있겠냐"고 반문했다.

이어 "그런 사례는 거의 없다"며 "진화의 힘으로 아기가 엄마를 통제하는 것이 내가 아는 유일한 예"라고 했다.

그는 또 매우 강력한 AI 시스템에 비하면 인간은 유아에 불과하다며 "우리는 세살짜리 아이처럼 될 것"이라고도 전망했다.

힌턴 교수는 처음 AI 연구를 시작했을 때는 이 정도로 빠르게 발전이 이뤄질지 예상하지 못했다며 "대부분의 전문가는 20년 이내에 사람보다 똑똑한 AI가 개발될 것으로 보고 있는데, 이는 매우 무서운 전망"이라고 짚었다.

그러면서 기술 개발 속도가 자신의 예상보다 매우, 훨씬 빠르다며 정부의 규제 필요성을 촉구했다.

그는 "이윤을 추구하는 대기업에만 맡겨두는 것은 충분하지 않을 수 있다"며 "대기업이 안전을 위한 연구를 더 많이 하게 강제하는 유일한 방법은 정부 규제뿐"이라고 강조했다.

힌턴 교수는 AI 머신러닝 기초를 확립한 공로를 인정받아 올해 노벨물리학상을 수상했다.

AI분야의 "개척자"로 불리며 구글에서 부사장까지 지냈지만 지난해 4월 구글과 결별한 이후로는 AI의 위험성에 대해 공개적으로 경고하면서 "내부고발자"(Whistleblower)로도 불리고 있다.

그는 AI가 인류에 미칠 나쁜 영향을 자유롭게 경고하기 위해 구글을 떠났다고 밝혔으며 AI가 곧 인간을 추월하고 통제 불능이 될 수 있는 위험에 대해서도 우려해야 한다고 경고해왔다.



TOTAL: 2682262

番号 タイトル ライター 参照 推薦
3/31(水) パッチ内容案内させていただ… 관리자 2023-03-24 206897 18
2682282 ゾセンジングがいくら偉そうな顔を....... copysaru07 11:29 7 0
2682281 世越号事故と済州航空事故の共通点 (4) inunabeya18 11:27 28 2
2682280 李在明の緊急命令が必要だろう。 (2) uenomuxo 11:27 20 0
2682279 動体着陸したら燃料を最大限留守に....... cris1717 11:25 17 0
2682278 無抵抗で 12歳に殖民奴隷になったゾ....... (1) copysaru07 11:23 35 0
2682277 韓国の南西部のムアン(務安)空港....... (3) inunabeya18 11:09 84 4
2682276 チェジュ航空オーバーラン動画 (2) oozinn 11:06 95 0
2682275 どうして速度を減らすことができな....... (6) bugati839 11:01 91 3
2682274 光州近郊の空港かあ・・・・ (1) uenomuxo 10:58 77 0
2682273 事故機はボーイング737 (1) kd0035 10:49 75 0
2682272 支那土人「朝鮮土人の何がそんなに....... (1) terara 10:45 70 0
2682271 韓国航空機が弾劾されて墜落 (3) nekodotera184 10:44 113 0
2682270 チェジュ航空は払えるのか? (3) ひょうたんでしょう 10:44 122 0
2682269 日本の放射能のために韓国航空機が....... (1) executioner3 10:38 88 0
2682268 速報! 韓国墜落! (5) uenomuxo 10:33 158 0
2682267 韓国人が操縦したためチェジュ航空....... (1) executioner3 10:31 121 0
2682266 韓国、空港で旅客機炎上中 (7) くろやぎ 10:24 183 0
2682265 汚い骨髓共産主義者, 北朝鮮やつ=copys....... PrideOfChina 10:14 50 0
2682264 ユンソックヨル大統領が悪いことは (2) PrideOfChina 10:09 63 0
2682263 韓国内乱事態は「正しい歴史認識欠....... (1) uenomuxo 10:08 86 0