광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[피터디아만디스-거대한 AI 논쟁] AI에 대한 큰 논쟁이 벌어지고 있다. AI는 친구일까, 적일까? AI는 풍요로 가는 길인가? 아니면 인류 종말의 길인가? 당신은 가속주의자인가, 아니면 파멸자인가? AI가 향후 5년 안에 우리 모두에게 신과 같은 힘을 줄 것이라고 믿는가, 아니면 인류를 전복시킬 것이라고 믿는가?

https://www.diamandis.com/blog/the-great-ai-debate

운영자 | 기사입력 2023/12/05 [00:00]

[피터디아만디스-거대한 AI 논쟁] AI에 대한 큰 논쟁이 벌어지고 있다. AI는 친구일까, 적일까? AI는 풍요로 가는 길인가? 아니면 인류 종말의 길인가? 당신은 가속주의자인가, 아니면 파멸자인가? AI가 향후 5년 안에 우리 모두에게 신과 같은 힘을 줄 것이라고 믿는가, 아니면 인류를 전복시킬 것이라고 믿는가?

https://www.diamandis.com/blog/the-great-ai-debate

운영자 | 입력 : 2023/12/05 [00:00]

3월에 예정된 Abundance360 Summit에서 우리는 AI 분야의 주요 기업가 및 목소리와 함께 이 주제에 대해 논의할 것이다.

ChatGPT가 출시된 지 1년밖에 되지 않았는데그 속도가 얼마나 빠른지 믿기 어렵다.

질문: AI를 인생에서 *가장 중요한 기술*로 우선시한 적이 있는가귀하의 생활회사업계에서 AI를 어떻게 보고 있는가?

솔직히 말해서당신이 기업가, CEO, 투자자자선사업가사업주라면 생각해 봐야 할 더 중요한 질문은 없다.

AI는 매우 기본적이므로 두 가지 결과가 나올 가능성이 높다:

 10년이 지나면 두 종류의 회사가 있을 것이다.

-AI를 충분히 활용하는 기업과 폐업하는 기업

 

AI에 대한 '우려되는 이유' '안심해야 할 이유'에 대해 간단히 살펴본다.

우려되는 이유

-샘의 해고도대체 OpenAI 이사회(특히 OpenAI의 수석 과학자 일리아 수츠케베르)가 샘 알트만(Sam Altman)을 해고한 이유는 무엇일까이것은 의심할 바 없이 향후 3년 내에 유료 영화가 될 900억 달러 규모의 문제이다일반 인공 지능(AGI)의 초기 증거가 이사회를 놀라게 했는가이유가 무엇이든세계 최고의 AI 기업이 이런 격동을 겪었다는 사실 자체가 우려할 만한 이유다또한 AI에 대한 큰 논쟁에서 우리는 기술 자체뿐만 아니라 이를 개발하고 통제하는 사람들에게도 관심을 기울여야 한다는 점을 상기시켜 준다.

 

-2024년 미국 대통령 선거(“Patient Zero”): 8년 전, 2016년 선거를 방해하려면 Cambridge Analytica와 상당한 예산이 필요했다. Cambridge Analytica와 다른 행위자들이 2016(AI가 현재보다 훨씬 덜 개발되었을 때)에 그렇게 많은 영향력을 행사했다면고등학생이 오늘날의 무료 AI 도구를 사용하는 다음 선거(2024)에는 어떤 일이 일어날 것으로 예상할 수 있을까심각한 혼란을 초래할 수 있나?

-AI로 인한 일자리 손실: AI의 대량 사용으로 인한 일자리 제거로 인해 숙련된 노동력 시장이 사라지면서 대학 졸업생 전체 세대가 머리를 긁적일 수 있다이는 코로나19 팬데믹으로 인한 트라우마에 더해 시민 불안의 공식이 될 수도 있다제때에 어떻게 재교육하거나 기술을 향상시킬 수 있을까? UBI의 일부 버전을 현실적으로 작동시킬 수 있을까? AI 개발 속도가 가속화됨에 따라 이러한 모든 질문은 더욱 시급해질 것이다.

 

-허위 정보와 진실의 침식우리는 허위 정보로 인한 진실과 신뢰의 침식을 걱정할 충분한 이유가 있다. AI의 디스토피아적 사용은 나쁜 행위자와 악의적인 개인에게 딥페이크에서 가짜 뉴스에 이르기까지 대규모로 잘못된 정보를 생성할 수 있는 도구를 제공한다이는 비록 불완전하지만 우리 사회가 기능하도록 유지하는 데 중요한 역할을 하는 중요한 사회 기관(미디어교육)에 무엇을 의미할까사실과 허구진실과 허위 정보를 분석할 수 있는 알고리즘이 제때에 출시될 수 있을까?

 

▷안심해야 할 이유

긴장을 풀어야 할 이유에 관해서는 Meta의 수석 AI 과학자 얀 르쿤(Yann LeCun)의 논리가 귀하의 우려를 해소하는 데 도움이 될 것이다.

르큔이 분명히 주장한 것처럼, "지능이 반드시 지배에 대한 욕구와 동일시되는 것은 아니다." 이러한 통찰력은 AI 개발의 궤적을 이해하는 데 매우 중요하다.

 

-AGI가 인류에 대한 지배와 동일하지 않은 이유먼저 르쿤이 사용한 인간 비유를 고려해 보겠다. “인간의 지능이 항상 통제에 대한 갈증과 연관되는 것은 아니다실제로는 그 반대인 경우가 많다우리 중 가장 지적으로 재능이 있는 사람이 반드시 권력을 추구하는 사람은 아니다이러한 현상은 국제정치부터 지역사회까지 다양한 분야에서 볼 수 있다지적으로 재능이 부족한 사람들은 아마도 보상 메커니즘으로서 다른 사람들에게 영향을 미치고 싶은 더 큰 필요성을 느낄 수도 있다고 믿어진다반면에 지능이 높은 사람들은 자신의 기술과 지식에 의존하여 인생을 헤쳐나갈 수 있는 경우가 많다.”

 

두 번째로 고려해야 할 점은 우리 자신보다 똑똑한 사람들과 함께 일하는 데 대한 기존의 편안함이다얀 르쿤은 연구실을 이끌었던 자신의 경험을 되돌아보면서 “가장 보람 있는 채용은 나보다 더 많은 지성을 가져온 사람들이었다뛰어난 지성을 보이는 사람들과 함께 일하는 것은 풍요롭고 고양될 수 있다.” 마찬가지로우리보다 더 지능적일 것으로 예상되는 AI 비서와의 미래 상호 작용은 우리의 능력을 감소시키기보다는 향상시킬 가능성이 높다.

 

-AI: 인간의 지능을 전복하지 않고 강화한다이러한 AI 시스템은 아무리 발전해도 우리의 지능에 봉사하고 강화하기 위해 존재할 것이다이 관계는 AI가 지원적이고 계몽적인 가이드 역할을 하는 멘토와 견습생과 유사하다지능이 높을수록 자연스럽게 지배욕이 생긴다는 것은 오해이다이 개념은 계층 구조가 널리 퍼져 있는 인간과 같은 사회적 종에 대한 우리의 이해에서 비롯된다그러나 지능과 지배하려는 욕구는 본질적으로 연결되어 있지 않다.

르쿤(LeCun)은 인간만큼 지능이 높지만 비사회적 성격으로 인해 지배하려는 욕구가 부족한 종인 오랑우탄을 고려할 것을 제안한다이 예는 지능이 본질적으로 통제 욕구로 이어지지 않는다는 것을 보여준다. AI 영역에서는 이 원칙이 그대로 적용된다우리는 지배에 대한 본질적인 야망 없이 지능형 시스템을 설계할 수 있다그들의 주요 기능은 우리의 목표 달성을 지원하고 통치자라기보다는 도구처럼 행동하는 것이다.

 

-인간이 정의한 목표로 AI 안내: AI의 잠재력을 활용하는 열쇠는 목표 설정에 있다르쿤은 “AI 시스템의 목표를 정의하는 것은 바로 우리 인간이다이러한 지능형 시스템은 이러한 주요 목표를 달성하기 위해 하위 목표를 생성한다그러나 AI가 하위 목표를 우리가 의도한 결과에 맞추도록 하는 방법은 아직 완전히 해결되지 않은 기술적 과제이다.” 이는 AI 연구의 최전선을 나타내며, AI가 인류에게 유익한 방식으로 발전하도록 보장하는 데 중요하다.

 

-인간 상호 작용의 확장으로서의 AI: 미래에는 주로 AI 에이전트를 통해 디지털 세계와 상호 작용할 수 있다. AI를 정보를 저장할 뿐만 아니라 추론하고 학습하고 지원하는 플랫폼인 위키피디아(Wikipedia)의 더욱 대화적이고 지식이 풍부한 버전으로 상상해 보라 AI는 오늘날 인터넷이 작동하는 방식과 유사한 오픈 소스 플랫폼을 기반으로 해야 한다그러한 시스템은 소수의 민간 단체에 의해 통제되는 위험을 피하면서 모두에게 개방적이고 접근 가능해야 한다.

 

-오픈 소스의 필수적이고 글로벌한 기여얀 르쿤은 초지능 AI 시스템을 관리하는 소수 회사의 위험이 심각하다는 점을 인정한다. “그들은 잠재적으로 여론문화 등에 영향을 미쳐 권력과 통제의 불균형을 초래할 수 있다.” 따라서 그는 이러한 AI 시스템의 개발 및 운영이 오픈 소스여야 하며 글로벌 기여와 감독이 가능해야 한다고 결론지었다이러한 접근 방식을 통해 AI는 전 세계의 다양한 입력을 통해 형성되는 집단적 인간 지식의 저장소가 된다.

 
ChatGPT, 일반 인공 지능, 일자리 손실, 허위 정보, AGI, 오픈 소스 관련기사목록
광고
광고
광고
광고
광고
광고
광고
AI메타홈서비스 많이 본 기사
최신기사
광고
광고