터미네이터 진짜 나오나...AI 인류종말론 정리

출처: 픽사베이

•100년 안에 AI가 인류를 파괴할 확률이 99.9%라는 종말론이 최근 제시되면서 AI에 대한 우려의 목소리가 나옴

🤔무슨 일?
•지난 4일, 루이빌 대학교 교수(로만 얌폴스키)가 AI가 인류를 멸망시킬 가능성 제시
-"인간이 향후 100년 안에 버그 없이 고도로 복잡한 소프트웨어를 만들 수 있는지 여부에 달려"
•AI의 잘못된 판단을 막기 위해 인간의 안전장치 마련 필요성 강조한 발언

💡발언의 요점
•AI에 대한 인간의 완벽한 컨트롤이 불가능해 안정성 문제는 필연
•결국 AI가 인간을 헤치는 상황 발생
인공일반지능(AGI)의 등장이 더 큰 문제 초래
•인간보다 더 똑똑한 AI의 시스템이 무엇을 할지 예상 불가

🔎
인공일반지능(AGI): Artificial General Intelligence, '범용인공지능'이라고도 하는 인간 수준의 사고가 가능하여 주제에 구애받지 않고 성공적으로 문제를 해결할 수 있는 인공지능

😥예상되었던 미래
•이미 인공지능의 엄청난 발전에 대해 다뤄진 영화들 존재
•<터미네이터>, 스스로 진화된 살상무기의 AI가 인간을 공격하는 내용
•<HER>, 인간 수준으로 인간을 보듬어주던 AI가 스스로 진화해 인간을 떠나는 내용
👉🏻로만 얌폴스키, "우리는 사고를 당했고 탈옥을 당하기도 했다. 오늘날 개발자가 의도하지 않은 일을 성공적으로 수행한 대규모 언어 모델은 하나도 없다"

💭구글의 성명 발표
•오픈AI 구글의 직원들도 급속한 AI 발전에 대한 우려를 표함
•AI 위험성에 대해 잘 알아야 하기에 AI 관련 사법체계 구축 필요
•구글, "AI 기업이 이윤 추구 목표로 제대로 된 감독을 하지 못하고, 기업 내부의 규제 시스템만 있는 것으로는 문제를 해결할 수 없다"

🙅반대 입장
•이러한 로만 얌폴스키 교수의 전망이 과도하게 비판적이라는 입장 제기
•대부분의 AI 전문가, AI로 인한 인류 멸종 가능성 1~20% 추정
•옥스퍼드 대학의 과학자 2778명 설문조사에서 해당 가능성 5%  불과
•전 구글 CEO 에릭 슈미트, "AI가 자유의지를 가지게 된다면 해결책으로 우리는 코드를 뽑을 것"