우리는 AI Superintelligence에 얼마나 가깝습니까? AI의 3 가지 유형은 설명했다

우리는 링크로 이루어진 구매위원회를받을 수 있습니다.

Openai의 Sam Altman은 작년에 블로그 게시물에서 Superintelligent AI가 가까운 시일 내에 달성 할 수 있다고 말했다. 다른 기술 전문가들은 인공 초 지성이 곧 다가오고 있다는 데 동의하며, 그들 중 많은 사람들이 그것이 위대 할 것이라고 생각하는 것 같습니다. 소프트 뱅크 (Softbank)와 AI 슈퍼 벤처 스타 게이트 (AI Super-Venture Stargate)의 회장은 소프트 뱅크 (Softbank)의 2024 년 주주 총회에서 인공 수퍼 인텔리전스는 2035 년까지 인공 수퍼 인텔리전스가 2035 년까지 10,000 번을 능가 할 수 있다고 말했다. 2025 년 1 월 백악관의 스타 게이트 발표에서 아들은 우리가 결코 해결할 수 없을 것이라고 생각했을 것이라고 추측했다.

그러나 인공 초 지능은 정확히 무엇이며, 우리는 그것에 대해 흥분하거나 두려워해야합니까? Superintelligent AI는 인간보다 똑똑 할 것입니다. 우리 자신의 지능의 한계로 상상할 수있는 것보다 똑똑합니다. 그러나 우리는 여전히 그곳에 도착하는 데 몇 걸음 떨어져 있습니다. AI는 인공 좁은 지능 (ANI), 인공 일반 지능 (AGI) 및 인공 수퍼 인텔리전스 (ASI)의 세 가지 유형으로 분류됩니다. 현재 챗봇에서 자율 주행 차에 이르기까지 모든 AI는 AI입니다. 수퍼 인텔리전스가 가능하기 전에 기술은 다음 단계, 즉 인공 일반 정보, 즉 지성이 인간과 동등한 AI를 달성해야합니다.

Altman과 아들은 AGI와 ASI를 달성하는 것이 임박하고 바람직하다고 생각하지만 다른 전문가들은 기간과 이점에 대해 회의적입니다. 그중에는 Kearney의 AI 리더 인 Brent Smolinski가 링크드 인 기사에 썼습니다.

인공 좁은 지능 : 우리가 현재 가지고있는 것

지금까지 사용한 모든 유형의 인공 지능은 좁은 AI입니다. 대형 언어 모델이나 이미지 생성기의 가장 최근 반복만큼 인상적이지만, 하나의 특정 목적을 수행하는 데 여전히 좁게 집중되어 있습니다. 그것들은 그들이 설계된 도메인으로 제한된 모델입니다. Chatgpt는 차를 운전할 수 없습니다. Tesla의 자동 조종 장치는 음악을 작곡 할 수 없습니다. Alphafold는 단백질 구조를 예측할 수 있지만 대화를 수행 할 수는 없습니다.

이러한 AI 모델은 특정 기능에서 탁월하지만, 우리 인간의 실제 이해와 다양성이 부족합니다. Openai의 O3는 생각하는 것처럼 보일지 모르지만 실제로 우리 인간처럼 분석하거나 이유는 아닙니다. 좁은 ai ~할 수 있다 DO는 지침을 매우 빠르게 따르고 훈련 중에 배운 통계적 상관 관계에 따라 출력을 생성하는 것입니다. 유명한 초기 예는 Google Deepmind ‘s Alphago로, Go의 게임을 마스터하고 자신이 생각하지 않았다고 말한 움직임을 사용하여 세계 챔피언을 물리 쳤지 만 Alphago는 다른 일을 할 수 없었습니다. 마찬가지로 Google의 새로운 대화 AI 어시스턴트 인 Gemini Live와 대화 할 수는 있지만 마치 실제 사람인 것처럼 여전히 좁은 제약 내에서 작동하고 있습니다.

인공 일반 정보 : 다음 AI 국경

인공 일반 정보 (AGI)는 인간뿐만 아니라 생각하는 AI가있을 때 광범위하게 정의됩니다. AGI는 여전히 가설 적이며 의견은 우리가 얼마나 가까이 달성하는지에 대한 의견이 다릅니다. 엘론 머스크 (Elon Musk)는 2024 년 4 월 X의 라이브 스트림에서 “2 년 안에”우리는 AGI를 가질 것이라고 말했다. Anthropic의 CEO 인 Dario Amodei는 2024 년 10 월 에세이 “Loving Grace의 기계”에서 비슷한 예측을 제공합니다. 그는 “2026 년에 일찍 올 수 있다고 생각합니다.”

다른 사람들은 더 회의적이며 마감일이 길거나 전혀 일어날 수 있는지 의심합니다. Microsoft AI의 CEO 인 Mustafa Suleyman은 Verge의 Decoder Podcast에서 Nilay Patel과의 인터뷰에서 “이것에 대한 불확실성은 너무 높아서 범주적인 선언이 나에게 그리고 정상에 대한 종류의 느낌이 들었습니다.” 뉴욕 대학교의 신경 과학 교수 인 게리 마커스 (Gary Marcus)는 최근 재산 기사에 다음과 같이 썼다.

얼마나 빨리 일어날 지 예측하는 데 문제가있는 것 중 하나는 AGI가 실제로 무엇인지, 그리고 우리가 그것을 달성 한시기에 대해 어떻게 알 수 있는지에 대한 의견 불일치가 있다는 것입니다. OpenAi는 웹 사이트에서 AGI를 “경제적으로 귀중한 작업에서 인간을 능가하는 높은 자율 시스템”으로 정의합니다. 이것은 인간의 마음과 동일한 유연성으로 문제를 해결하고 자율적으로 학습하는 능력 및 자기 인식을 포함하는 것을 포함하여 다른 AGI 정의에 미치지 못합니다. 자기 인식 AI라는 아이디어는 공상 과학 소설처럼 들리지만, 이것은 여전히 ​​AGI 범주에 속합니다. 결국 인간은 초 지능이 아닌 자기 인식을 달성합니다. 우리가 AGI를 달성 한 후에는 인공 초 지성으로의 진행이 매우 빠를 수 있습니다.

AI가 다음 AI를 구축할까요?

인간은 AI 수퍼 인텔리전스를 만들 필요가 없을 수도 있습니다. Agi는 우리를 위해 그것을 할 수 있습니다. Sam Altman은 자신의 개인 사이트에 게시 된 에세이에서 “AI 시스템은 우리가 더 나은 차세대 시스템을 만드는 데 도움이 될 것입니다.” “상황 인식”의 저자 인 Leopold Aschenbrenner는 우리가 AGI에서 ASI로 “1 년 안에”갈 수 있다고 생각합니다. 그는 “AI 진보는 인간 수준에서 멈추지 않을 것입니다. 수억 명의 AGI가 AI 연구를 자동화하여 10 년간의 알고리즘 진전을 1 년으로 압축 할 수있었습니다. 우리는 인적 수준에서 매우 초인간 AI 시스템으로 빠르게 진행될 것”이라고 말합니다.

이것은 재귀 적 자기 개선이라고합니다. AI는 다음 새롭고 개선 된 AI를 구축하여 새롭고 개선 된 버전을 구축 할 것입니다. 인간이 달성 할 수있는 것보다 훨씬 빠른 속도로 발생하는 AI 혁신은 “지능 폭발”을 유발할 수 있습니다. 이 문구는 1965 년에 “초대형 기계가 더 나은 기계를 설계 할 수 있었으며, 의심 할 여지없이 ‘지능적인 폭발’이 될 것이며, 인간의 지능이 뒤처져있을 것이며, 최초의 초대형 기계가 될 것이라는 의심 할 여지없이 더 나은 기계를 설계 할 수 있었으며, 최초의 초대형 기계가 될 것이라는 의심 할 여지없이 더 나은 기계를 설계 할 수있다.

인공 수퍼 인텔리전스 : 우리가 상상할 수있는 것보다 더 똑똑합니다

Agi는 이미 공상 과학 소설의 물건처럼 들립니다. 그래서 우리는 초 지능에서 무엇을 기대할 수 있습니까? Asi는 인간의 능력을 능가하고 우리가 할 수없는 방식으로 생각할 것입니다. “Superintelligence”의 저자 인 Nick Bostrom 은이를 AI로 정의합니다. Bostrom은 “현재의 인간 분포의 상단보다 지능 품질의 변형에 대한 경험이 부족하다”고 말한 것처럼 우리보다 우리보다 더 잘 생각할 것입니다.

아마도 가상의 인공 수퍼 인텔리전스의 가장 좋은 예는 갤럭시의 깊은 생각에 대한 히치하이커의 가이드입니다. 이것은 생명, 우주, 그리고 모든 것들에 대한 답을 찾기 위해 42로 선포했습니다. 이것은 ASI와의 잠재적 문제를 보여줍니다. 그것은 우리의 작은 작은 인간 지능이 확인할 수 없다는 답을 줄 수 있습니다. 그것은 우리가 Gerbil에 대한 2 차 방정식을 설명하는 것과 같습니다.

우리는 사고 과정을 이해할 수 없을 수도 있지만 Sam Altman은 그의 블로그에 대한 게시물에서 Superintelligent AI의 이점을 확실히 알게 될 것이라고 예측합니다. “초 지능형 도구는 우리가 스스로 할 수있는 일을 넘어 과학적 발견과 혁신을 크게 가속화 할 수 있으며, 그 결과 풍요와 번영을 크게 증가시킬 수 있습니다.” 이것은 고양이가 전기 저항, 열전달 및 열 조절을 이해하지 않고 전기 담요의 이점을 이해할 수있는 것과 같은 방식으로 효과가있을 수 있습니다. “Chatgpt and the Future of AI”의 저자 인 Terrence J. Sejnowski는 “최상의 시나리오에서는 초 지성이 우리의 건강과 부를 발전시키는 데 엄청나게 도움이 될 수 있는데,”

인공 수퍼 인텔리전스가 얼마나 위험 할 수 있습니까?

가장 좋은 시나리오는 ASI가 강력한 지능을 사용하여 암을 치료하고 기후 변화와 같은 세계적인 도전을 해결하며 일반적으로 인간을 도울 것이라는 것입니다. 그러나 또 다른 가능한 결과가 있습니다. 루이빌 대학의 컴퓨터 과학 교수 인 Roman V. Yampolskiy는 그의 저서 “AI : 설명 할 수없고 예측할 수없고 통제 할 수없는 통제 할 수없는”AI는 “실존 적 재앙을 일으킬 수있는 잠재력”을 가지고 있다고 말했다. 마찬가지로, AI 안전 센터의 책임자 인 Dan Hendrycks는 그의 논문에 “자연 선택은 인간에 대한 자연 선택 호의를 선호하며”그 수퍼 인텔리전스는 “미래에 대한 통제력을 잃을 수있다”고 썼다.

그러한 미래를 방지하기 위해 무엇을 할 수 있습니까? aitreaty.org의 공개 서한은 “AI 연구원의 절반이 AI의 절반 이상이 인간의 멸종이나 인류의 잠재력을 유사하게 치명적으로 축소 할 수있는 10% 이상의 확률을 추정한다고 말했다. Future of Life Institute는 또한 “일시 중지 거인 AI 실험”이라는 공개 서한을 발표했습니다. 30,000 개가 넘는 서명자가 있습니다. 그러나 AI 개발에서는 일시 중지되지 않았습니다. Openai는 “안전하고 유익한 AGI를 구축하는 것이 우리의 사명입니다.”라고 말합니다.

AI Superintelligence가 무엇인지 또는 얼마나 빨리 – – – – – – – – 그것은 현실이 될 것인지에 대한 합의는 없습니다. 기술 회사가 코스를 변경해야 할 시간이 여전히 있습니다. 그들은 심지어 우리가 AI 초 지능이 필요한지 여부를 고려할 수도 있습니다. Yampolskiy 교수가 루이빌 대학교와 Q & A에서 말했듯이, “우리는 특정 작업을 위해 설계된 좁은 AI에서 원하는 대부분의 혜택을 얻을 수 있습니다. 약물 개발, 자동차를 운전하십시오. 그들은 우리 중 가장 똑똑한 것보다 더 똑똑 할 필요가 없습니다.”