시사/경제 PositiveNegativeFreeStyleArguments

”인류, 더 똑똑한 것 상대한 적 없어 세살아기처럼 돼버린다”
이윤추구 대기업 견제 촉구…해법으로 안전연구 강제규제 제안


취재진 질문에 답하는 제프리 힌턴 교수<br />
(스톡홀름=연합뉴스) 김도훈 기자 = 7일(현지시간) 스웨덴 스톡홀름 왕립과학한림원에서 열린 2024 노벨경제학상·화학상·물리학상 수상자 공동 기자회견에서 노벨 물리학상 수상자

취재진 질문에 답하는 제프리 힌턴 교수
(스톡홀름=연합뉴스) 김도훈 기자 = 7일(현지시간) 스웨덴 스톡홀름 왕립과학한림원에서 열린 2024 노벨경제학상·화학상·물리학상 수상자 공동 기자회견에서 노벨 물리학상 수상자인 제프리 힌턴 캐나다 토론토대 명예교수가 취재진 질문에 답하고 있다. 2024.12.7 superdoo82@yna.co.kr


(서울=연합뉴스) 이신영 기자 = 인공지능(AI)의 “대부”로 불리는 노벨물리학상 수상자 제프리 힌턴 캐나다 토론토대 교수가 AI의 위험성에 대해 다시 한번 경고하고 나섰다.

27일(현지시간) 영국 일간 가디언에 따르면 힌턴 교수는 BBC 라디오에 출연해 AI 기술의 급속한 발전이 인류에 존망을 가를 위협이 될 수 있다고 우려했다.

그는 기술변화 속도가 예상보다 “훨씬 빠르다”며 AI로 인해 향후 30년 이내에 인류가 멸종할 가능성이 10∼20%에 이른다고 진단했다.

그는 과거에도 기술 발전이 인류에 재앙적 결과를 초래할 확률이 10%라고 주장한 바 있는데 암울한 확률 수치를 더 높인 셈이다.

힌턴 교수는 “인류는 우리 자신보다 더 똑똑한 것을 상대해본 적이 없다”며 “더 지능적인 것이 덜 똑똑한 것에 의해 통제되는 사례가 얼마나 있겠냐”고 반문했다.

이어 “그런 사례는 거의 없다”며 “진화의 힘으로 아기가 엄마를 통제하는 것이 내가 아는 유일한 예”라고 했다.

그는 또 매우 강력한 AI 시스템에 비하면 인간은 유아에 불과하다며 “우리는 세살짜리 아이처럼 될 것”이라고도 전망했다.

힌턴 교수는 처음 AI 연구를 시작했을 때는 이 정도로 빠르게 발전이 이뤄질지 예상하지 못했다며 “대부분의 전문가는 20년 이내에 사람보다 똑똑한 AI가 개발될 것으로 보고 있는데, 이는 매우 무서운 전망”이라고 짚었다.

그러면서 기술 개발 속도가 자신의 예상보다 매우, 훨씬 빠르다며 정부의 규제 필요성을 촉구했다.

그는 “이윤을 추구하는 대기업에만 맡겨두는 것은 충분하지 않을 수 있다”며 “대기업이 안전을 위한 연구를 더 많이 하게 강제하는 유일한 방법은 정부 규제뿐”이라고 강조했다.

힌턴 교수는 AI 머신러닝 기초를 확립한 공로를 인정받아 올해 노벨물리학상을 수상했다.

AI분야의 “개척자”로 불리며 구글에서 부사장까지 지냈지만 지난해 4월 구글과 결별한 이후로는 AI의 위험성에 대해 공개적으로 경고하면서 “내부고발자”(Whistleblower)로도 불리고 있다.

그는 AI가 인류에 미칠 나쁜 영향을 자유롭게 경고하기 위해 구글을 떠났다고 밝혔으며 AI가 곧 인간을 추월하고 통제 불능이 될 수 있는 위험에 대해서도 우려해야 한다고 경고해왔다.


30年の内に人類絶滅可能性…"AI 貸し付け" ジェプリヒントンの警告

"人類, もっと利口なこと相対した事がなくて三歳赤んぼうのようになってしまう"
利潤追求大企業牽制促求…解法で安全研究強制規制提案


取材陣質問に答えるジェプリヒントン教授
(ストックホルム=連合ニュース) キム・ドフン記者 = 7日(現地時間) スウェーデンストックホルム王立科学翰林院で開かれた 2024 ノベル経済学上・化学上・物理学上受賞者共同記者会見でノベル物理学上受賞者

取材陣質問に答えるジェプリヒントン教授
(ストックホルム=連合ニュース) キム・ドフン記者 = 7日(現地時間) スウェーデンストックホルム王立科学翰林院で開かれた 2024 ノベル経済学上・化学上・物理学上受賞者共同記者会見でノベル物理学上受賞者であるジェプリヒントンカナダ討論土台名誉教授が取材陣質問に答えている. 2024.12.7superdoo82@yna.co.kr


(ソウル=連合ニュース) イシンヤング記者 = 人工知能(AI)の "大父"と呼ばれるノベル物理学上受賞者ジェプリヒントンカナダ討論土台教授がAIの危険性に対してもう一度警告して出た.

27日(現地時間) イギリス日刊ガーディアンによればヒントン教授はBBCラジオに出演してAI技術の急速な発展が人類に存亡を割る脅威になることができると憂慮した.

彼は技術変化速度が予想より "ずっと早い"とAIによって今後の 30年以内に人類が絶滅する可能性が 10〜20%にのぼると診断した.

彼は過去にも技術発展が人類に災い的結果をもたらす確率が 10%と主張した事があるのに暗鬱な確率数値をもっと高めたわけだ.

ヒントン教授は "人類は私たちよりもっと利口なことを相対して見た事がない"と "もっと知能的なことが不十分に利口なことによって統制される事例がいくらあるのか"と聞き返した.

であって "そんな事例はほとんどない"と "進化の力で赤んぼうがママを統制するのが私が分かる唯一の例"と言った.

彼はまた非常に力強いAIシステムに比べれば人間は乳児に過ぎないと "私たちは三歳の子供のようになること"とも見通した.

ヒントン教授は初めAI研究を始めた時はこの位に早く発展が成り立つか予想することができなかったと "大部分の専門家は 20年以内に人より利口なAIが開発されることで見ているのに, これは非常に恐ろしい見込み"と察してみた.

それとともに技術開発速度が自分の予想より非常に, ずっと早いと政府の規制必要性を促した.

彼は "利潤を追い求める大企業にだけ任せておくことは十分なのないこともある"と "大企業が安全のための研究をもっとたくさんするように強制する唯一の方法は政府規制だけ"と強調した.

ヒントン教授はAIマシンランニング基礎を確立した功労を認められて今年ノベル物理学上を受賞した.

AI分野の "開拓者"と呼ばれてGoogleから副社長まで勤めたが去年 4月Googleと別れた以後ではAIの危険性に対して公開的に警告しながら "内部告発者"(Whistleblower)でも殖やしている.

彼はAIが人類に狂う悪い影響を自由に警告するためにGoogleを去ったと明らかにしたしAIがすぐ人間を追い越して統制不能になることができる危険に対しても憂慮しなければならないと警告して来た.



TOTAL: 2702479

번호 제목 글쓴이 날짜 조회 추천
3/31(수) 패치내용 안내드립니다. 관리자 2023-03-24 250410 18
2702019 이재명 K민주주의와 발언 夢夢夢 04-04 193 0
2702018 한국과 일본의 벚꽃 놀이의 차이 propertyOfJapan 04-04 220 2
2702017 생선구이 정식이 10만원의 바가지의 ....... (1) ben2 04-04 215 0
2702016 한국도 개헌이 절실한 (2) bibimbap 04-04 198 0
2702015 폐인의 치료하는 방법 v0m0v 04-04 189 2
2702014 한국은 묘지를 없애고 있는 중.. propertyOfJapan 04-04 153 0
2702013 외국 언론들 독재자 파면 한국 민주주....... (1) sw49f 04-04 55 0
2702012 마침내 한국이 동서 분할국이 되는지 ....... (2) ben2 04-04 267 0
2702011 친일 尹정권 쓰레기 윤석열 사형 (1) arisu2000 04-04 219 0
2702010 친일 尹정권 3년은 지옥이었다. (2) jap6cmwarotaZ 04-04 218 0
2702009 早期 大選 (4) bibimbap 04-04 183 0
2702008 pakuri 요리밖에 없는 일식 fighterakb 04-04 191 0
2702007 pakuri 전통 문화밖에 없는 일본 fighterakb 04-04 187 0
2702006 법리적으로 봤을 때, 이번 파면은 당....... (3) bibimbap 04-04 237 0
2702005 국가 운영도 온전히 할 수 없는 것인....... (1) tikubizumou1 04-04 253 1
2702004 현재 나스닥 3% 폭락중 코스피 야간도 ....... (1) sw49f 04-04 201 0
2702003 괴롭다 (4) bibimbap 04-04 232 0
2702002 한국은 해마다 겁쟁이가 되어있는 (1) ben2 04-04 265 0
2702001 트럼프, 중국에 부과한 상호관세로 ....... theStray 04-04 204 0
2702000 한국의 일본 중세 연구자는 1명도 없....... (3) Prometheus 04-04 252 0