[미래학자 William E. Halal-AI의 약속과 위험에 대한 결과: AI는 강력한 도구, 그러나 특이점은 과장된 것] AI가 강력한 도구는 맞지만 "특이점"에 대한 대담한 주장과 깊은 두려움은 과장된 것일 수 있다. 연구결과 만연한 대량 실업의 위협을 제거하며 전 세계적으로 예상치보다 약 10-12%의 소폭 증가가 있다. 완전한 AGI가 2037년경에 등장할 가능성이 있다. 인간의 행위주체를 능가하는 초 지능 AI는 불가능하며 생명만이 의식을 가지고 있으므로 인간은 항상 승리한다.https://www.billhalal.com/blog/TechCast는 [AI의 약속과 위험에 대한 연구] 결과를 발표하게 된 것을 자랑스럽게 생각한다. 이 연구는 다행스럽게도 우리 전문가들의 최선의 판단과 인간과 기계의 융합이라는 전설적인 ChatGPT의 응답을 종합한 결과를 포함했다. 우리는 이 연구가 AI와 인간이 공동으로 내리는 미래 결정의 모델이 될 수 있음을 부드럽게 제안한다.
그 결과 우리는 AI가 강력한 도구라는 결론을 내리지만 "특이점"에 대한 대담한 주장과 깊은 두려움은 과장된 것일 수 있다. 이 연구는 제한적이지만 우리는 인간보다 우월한 AGI, 대량 실업 및 일반적으로 거의 확실하다고 공언하는 실존적 위협에 대한 전망을 뒷받침할 증거를 찾지 못했다. 우리가 보여줄 것처럼, 데이터는 AI가 훨씬 더 강력해질 것이지만 인류 고유의 고차원 의식의 힘에 종속될 것임을 분명히 시사한다. 우리의 결과는 AI의 위험을 제어할 수 있는 중간에서 강력한 기능, 실업률의 약간의 증가, 유익한 사회적 및 인간적 영향을 예측한다.
이러한 결론은 AI 혁명에 대한 현재의 두려움에 도전하지만 우리는 틀렸다는 것이 증명될 가능성을 쉽게 인정한다. 본 연구는 전문가와 AI 지능을 종합한 것이기 때문에 AI의 지능을 포함하여 집단지성의 작은 돌파구를 제시한다. TechCast는 이러한 발견이 이론적 특이점의 위험을 없애고 이 새로 발견된 힘을 책임감 있게 제어할 계획을 세우는 데 도움이 될 수 있다고 확신한다.
조사 결과에 대한 간략한 요약: 이 연구의 거의 모든 28명의 응답자가 AI 연구에 대한 모라토리엄에 대한 목적이 없다고 생각한다. 정지는 강제할 수 없으며 악의적인 운영자를 조장할 것이다. 그것은 명백하다. 강력한 규제가 필수적이지만 우리는 종종 예견되는 실존적 위협보다는 AI를 제어할 수 있는 온건하고 아마도 강력한 능력을 예견한다. 좋은 소식이다.
우리의 가장 두드러진 발견 중 하나는 만연한 대량 실업의 위협을 제거한다. 우리는 전 세계적으로 약 10-12%의 소폭 증가를 자신 있게 예측한다. 더 좋은 소식이 있다. 그러나 일부 국가 및 산업에서는 실업률이 20% 이상의 위기 수준에 근접할 가능성이 항상 있다.
응답자의 절반은 현재의 AI 시스템이 지금도 AGI에 가깝고 완전한 AGI가 2037년경에 등장할 가능성이 있다고 생각한다. 나머지 절반은 AGI가 "훨씬 늦게 또는 전혀" 도착하지 않을 것이라고 생각한다. 우리는 이것이 인간의 가치, 목표, 감정, 목적 등의 시뮬레이션을 포함하여 AI가 훨씬 더 지능화된다는 것을 의미한다고 생각한다. 그러나 생명만이 의식을 가지고 있으므로 인간은 항상 승리할 것이다. 그런 의미에서 TechCast는 인간의 행위주체를 능가하는 초지능 AI는 불가능하다고 제안한다.
마지막으로, 데이터는 인간의 지능과 창의성의 상당한 발전뿐만 아니라 사회적 안정과 번영의 상당한 이득을 시사한다. 어쩌면 우리는 모든 "(질풍노도운동Sturm und Drang)"을 가볍게 할 수 있다.
이 연구는 우리의 결과를 ChatGPT의 결과와 비교했기 때문에 AI의 한계에 대한 유용한 통찰력도 얻었다. ChatGPT는 6개 질문 중 3개만 답변했으며 그 답변은 시스템 자체를 선호하는 경향이 있다. 이전 뉴스레터에서 알 수 있듯이 가장 큰 위험은 오류, 잘못된 정보 및 막대한 형태의 주관적 편견의 확산에 있다.
우리는 AI가 훨씬 더 강력하고 도발적이지만 지능으로 지식을 관리하는 인류의 발전하는 능력에서 또 다른 도구가 될 가능성이 높다고 결론지었다. 그러나 지지자들이 예언한 초지능, 대량 실업, 중대한 위협에 대한 광범위한 공포는 이론에 불과하다. 일부 알려지지 않은 돌파구가 없는 TechCast는 AI에 대한 우수한 제어, 생산성의 엄청난 향상, 사회 개선 및 인간 창의성의 향상을 예측한다.
우리는 스티브 하우스만(Steve Hausman)이 ChaptGPT에 동일한 6개의 질문을 제기할 수 있는 통찰력을 갖게 된 것을 특히 기쁘게 생각한다. ChatGPT 응답은 다음 전문가 의견과 비교할 수 있도록 아래 의견에 먼저 제공된다.
1.모라토리엄 AI를 일시적으로 중단하는 것이 좋은 생각이라고 생각하는가? 아니면 모라토리엄이 무의미하고 필요에 따라 통제가 개발되어야 한다고 생각하는가? (예/아니오) 결과는 AI 연구 중단을 촉구하는 아이디어를 강력하게 반박한다. 28개 응답 중 모라토리엄에 찬성하는 응답은 4개(14%)에 불과했다. 아래 댓글에서 언급했듯이 ChatGPT는 장단점을 설득력 있게 논의했지만 결론은 제시하지 않았다.
우리 전문가들은 추론을 명확하게 했다. 최영진 씨 등은 “그렇지 않으면 장전된 총을 가지고 노는 아이와 같다”며 멈춰야 한다고 강조했다. 그러나 대부분은 장애물에 깊은 인상을 받았다. 켄트 마이어스(Kent Myers)는 "일시 중지를 강요할 수 없다."고 생각했고 피터 킹(Peter King)은 "지니가 이미 병에서 나왔기 때문에 정지는 소용이 없다고 생각한다."고 말했다. 스티브 하우스만(Steve Hausman)은 "모라토리엄이 실현 가능하거나 바람직하지 않다고 생각한다."고 말했다. 클레이튼 롤링스(Clayton Rawlings)는 다음과 같이 극명하게 표현했다. 그렇다, 나는 중국을 보고 있다."
코멘트 ChatGPT AI 언어 모델로서 개인적인 의견이나 신념을 가지고 있지 않다. 그러나 주제에 대한 정보를 제공할 수 있다. AI 개발에 대한 모라토리엄 아이디어는 전문가와 정책 입안자들 사이에서 논의되었다. 지지자들은 AI가 널리 채택되기 전에 일시적인 중단이 AI의 윤리적, 사회적, 경제적 영향을 신중하게 평가할 수 있게 해줄 것이라고 주장한다. 그들은 이것이 실직, 사생활 침해, 편견과 같은 잠재적인 부정적인 결과를 예방하는 데 도움이 될 수 있다고 주장한다. 모라토리엄에 반대하는 사람들은 AI가 이미 사회의 여러 측면에 통합되어 있으며 상당한 경제적 및 기술적 비용 없이 개발을 중단하는 것은 어려울 것이라고 주장한다. 그들은 모라토리엄 대신 책임 있고 윤리적인 AI 개발을 보장할 수 있는 효과적인 규제 프레임워크를 개발하는 데 노력을 집중해야 한다고 주장한다. 궁극적으로 모라토리엄을 구현하거나 필요에 따라 AI를 개발하는 결정은 사회적 가치, 경제적 고려 사항 및 기술 발전을 포함한 다양한 요인에 따라 달라진다. AI의 개발이 사회의 최선의 이익과 일치하도록 하기 위해 AI의 의미에 대해 공개적이고 정보에 입각한 토론을 계속하는 것이 중요하다.
오웬 데이비스 Owen Davies 그것은 단순히 헛된 것이 아니다. 과학적 연구나 기술 개발에 대한 제한은 결코 보편적이지 않다. 따라서 그들은 단지 그들에 의해 고통받는 사람들로부터 그렇지 않은 사람들에게 경쟁 우위를 이전할 뿐이다... 유럽 AI 개발자[AI 연구 중단]는 윤리보다 돈에 더 관심이 있는 국가의 사람들에 비해 장애가 될 것이다. 유럽 이외의 거의 모든 곳. AI 개발자가 불편한 규칙을 수락해야 하는 경우... 규정으로 부과되는 Microsoft 등은 제품이 그렇지 않은 한 이를 무시할 의향이 있는 중국이나 다른 국가의 지사로 개발 작업을 옮길 것이다. 그들의 정부를 위험에 빠뜨린다. AI 규제에 대해 진지한 국가는 GDP 성장이 제한되지 않은 국가보다 훨씬 뒤쳐지는 것을 발견하고 결국 제한을 해제할 것이다.
이안 브라우데 Ian Browde 모든 신기술과 마찬가지로 보안, 법률 및 기타 중요한 측면에서 따라잡으려면 시간이 필요하다. 대부분의 경우 기술은 사람들이 이해하는 데 시간이 걸리며 기술이 이해될 때까지 그 결과를 이해하고 예상할 수 없다.
클레이튼 롤링스 Clayton Rawlings 나는 1980년대 마약과의 전쟁에서 어깨동무였다. 우리 모두는 그것이 어떻게 진행되었는지 알고 있다. AI 개발에 대한 모라토리엄은 불가능할 뿐만 아니라 "상대방"이 누구든 간에 극복할 수 없는 선두를 개발할 수 있게 한다. 그런 다음 그들이 자비로운 결정을 내리기를 바란다. 그렇다, 나는 중국을 보고 있다.
켄트 마이어스 Kent Myers 일시중지를 적용할 수 없다. 우리가 잠시 멈추더라도 그 기간 동안 통제 방식을 개발할 수 없었다.
파스칼 세이겔 Pascale Seigel 큰 기술은 위험 관리가 상당히 열악하기 때문에 좋은 생각이라고 생각한다. 엑스 피차이(Ex Pichai)는 2021년과 2022년에 두 명의 수석 윤리학자를 해고한 후 철학자와 윤리학자가 AI 개발에 참여해야 한다고 말한다.
데니스 부시넬 Dennis Bushnell 현재 본질적으로 멈출 수 없다…
피터 킹 Peter King 지니가 이미 항아리에서 나왔기 때문에 정지는 무의미하다고 생각한다. AI는 사람들이 챗봇을 계속 사용함에 따라 계속 학습할 것이다. 그러나 나는 Asimov의 로봇에 대한 "해를 끼치지 않는다" 원칙과 같은 어떤 형태의 규제가 필요할 수 있다고 생각한다(로봇은 인간을 다치게 하거나, 행동하지 않음으로써 인간이 해를 입도록 허용할 수 없다. 로봇은 반드시 제1원칙에 저촉되는 경우를 제외하고는 인간이 내린 명령에 복종한다. 로봇은 제1원칙 또는 제2원칙에 저촉되지 않는 한 자신의 존재를 보호해야 한다.
클레이튼 딘 Clayton Dean 모라토리엄은 주로 업계 후발자들에 의해 제기되었으며 적청어이다. 더욱이 모라토리엄을 시행하는 실용적인 방법은 없다. 이 구성의 어리석음은 표준을 시행하고 준수를 모니터링하여 중국, 이란 또는 기타 국가를 검사하여 모라토리엄에 대한 생각을 사실상 불가능하게 만드는 업계 조직의 부족으로 더욱 입증된다.
최영진 모라토리엄이 필요하다. 그렇지 않으면 장전된 총을 가지고 노는 아이와 같다.
빅터 모티 Victor Motti 모라토리엄은 좋은 생각이지만 이유 때문에 효과적이지 않을 수 있다. AI에 대한 상당한 양의 실험이 있으며 심지어 컴퓨터 과학자들도 실제로 무슨 일이 일어나고 있는지에 대한 이론을 잘 이해하지 못하고 있다. 중국은 이 영역에서 큰 역할을 하고 있으며 서방과 협력하는 길을 따르지 않을 것임을 증명했다.
밀린드 치탈레 Milind Chitale 통제는 원인과 결과의 관계를 측정하는 것이다. AI 개발의 현재 단계에서 우리는 이미 극도로 큰 가능성의 봉투를 보았음에도 불구하고 전체 장면이 재생되지 않았다. AI가 무엇을 어떻게 사용할 수 있는지 제어할 수 있으려면(제어해야 하는 수십 가지 항목 중 두 가지에 불과함) 모든 형태의 제어에 기여할 수 있는 전문가 군대가 여전히 필요하다. 그건 그렇고, 이제 우리는 정부를 포함하여 AI 활용에 관심이 있는 사람들이 더 많으며, 그 다음에는 상상할 수 없는 모든 형태의 투자 회수(합법적인 남성 내부에서 든 외부에서 든 재정적인 것이 가장 중요함) 때문에 AI를 통제해야 할 필요성을 깨달은 사람들이 있다.
스티브 하우스만 Steve Hausman 모라토리엄이 실현 가능하거나 바람직하다고 생각하지 않는다. 일부 국가에서는 AI 개발을 전략적 이익으로 간주할 가능성이 높기 때문에 자의적 통제가 구현되더라도 AI 개발은 진행될 것이다.
자크말랑 JacquesMalan 조 퍼블릭(Joe Public)이 알고 있는 AI(ChatGPT와 같은)에 모라토리엄을 두는 것은 영리한 알고리즘이 있는 거대한 언어 모델일 뿐이므로 이치에 맞지 않는다. 그들이 줄어들지 않고 계속하도록 해야한다 (그들은 어쨌든 그럴 것이다). 그러나 우리의 현실을 조작하는 AI의 보다 침입적인 측면(특히 딥페이크 애플리케이션의 경우)에 대해서는 즉각적인 규제 프레임워크가 필요하다고 생각한다(아직 너무 늦지 않은 경우). 모라토리엄은 LLM의 확장을 기반으로 하지만 이미 공개 도메인에 있는 시각적 데이터를 통합하기 때문에 효과가 없다. 그들은 이미 막을 수 없기 때문에 피해가 임박했다. 그런 다음 AGI("터미네이터" 시나리오)의 경우 인류에 미치는 영향과 (추가) 개발 및 적용을 관리하기 위한 일련의 규칙에 동의할 수 있을 때까지 모라토리엄이 권장될 수 있다고 생각한다.
웬델 월락 Wendell Wallach 모라토리엄은 통제를 시행하려는 기업과 AI 커뮤니티의 진지한 의도 없이는 상징적이고 무의미하다. 솔직히 저는 배포 중인 생성 AI 응용 프로그램에 결함이 있고 위험하며 효과적인 컨트롤이 개발될 때까지 철회해야 한다고 생각한다. 그러나 나는 그런 일이 일어날 것 같지 않다는 것을 알기에 충분한 현실주의자이다. 적어도 나쁜 반응이나 나쁜 제품을 걸러내는 효과적인 도구가 필요하다. 나는 정부가 효과적인 통제를 개발하지 않으면 제품을 사용하여 발생한 피해에 대해 회사가 책임을 져야 한다는 당근과 채찍 접근 방식을 사용할 것을 제안했다. 회사는 반독점법을 위반하지 않고 이러한 필터 또는 컨트롤을 개발하기 위해 협력할 수 있지만 개발된 컨트롤은 보편적으로 사용할 수 있어야 한다. 강력한 필터라도 응답 속도를 몇 초밖에 늦출 수 없다. 모든 피해를 제거할 수는 없지만 극적으로 줄일 수는 있다.
마이크 라이언 Mike Ryan 모라토리엄이 선호되지만 역사상 어떤 국가도 지시에 따르기 위해 줄을 섰다. 현재의 사회 지정 학적 환경에서 글로벌 합의의 전망은 상상할 수 없다. 경쟁에 참여하든 지도에서 떨어지든 관계없이 필요에 따라 개발이 우선한다.
린신우 Xin-Wu Lin 모라토리엄은 쓸모가 없을 것이다.
카스트브 레이 Kastuv Ray AI를 일시적으로 중단하는 것은 실수라고 생각한다. 기술이 보유한 약속으로 인해 AI를 개발할 때 컨트롤을 개발해야 한다.
2. 통제 전망 AI 컨트롤이 어느 정도 효과적일 수 있다고 생각하는가? 0~100%의 척도에서 0% = 혼돈, 50% = 간헐적 오류, 100% = 최소한의 오류.
이러한 결과는 특이한 삼봉 분포를 볼 때 특히 매력적이다. 왼쪽부터 시작하여 처음 3개의 응답(0-10%)은 평균 약 7% 대조군이다. 이 그룹은 AI가 인간을 능가하고 따라서 제어할 수 없는 초지능을 생산할 것이라고 확신하는 것 같다. 오웬 데이비스(Owen Davies)는 "복잡한 시스템에서 그러한 문제를 규제할 방법이 없다고 생각한다."고 말했다.
다음은 평균 약 47% 대조군인 "보통" 그룹(30-70%)이다. 이 사람들은 "간헐적인 실패"에 대한 전반적인 평균 50% 통제를 반영한다. 웬델 월락(Wendell Wallach)은 "실패는 주기적으로 계속 발생하지만 오용과 남용이 유행할 것"이라고 가장 잘 표현했다. 가장 오른쪽에는 평균 90%가 통제하는 5개의 응답(80-100%)으로 구성된 "낙관적" 그룹("최소 실패")이 있다. 강력한 제어의 필요성은 자크 말랑(Jacques Malan)이 "우리는 100%를 보장하는 것 외에는 선택의 여지가 없다.
ChatGPT가 온건파와 낙관파의 차이를 75% 통제로 나눠 AI 시스템 자체의 특징을 드러내는 점도 흥미롭다. ChatGPT는 외교를 위해 정확성을 피하고 온건한 견해를 위해 해로운 평가를 피함으로써 스스로를 방어하도록 프로그래밍된 것으로 보인다. ChatGPT가 요약한 내용은 다음과 같다. "AI와 관련된 위험을 완화하기 위한 조치를 취할 수는 있지만 예측하지 못한 결과나 오류가 발생할 가능성은 항상 존재한다. 따라서 AI의 안전하고 책임 있는 개발 및 배포를 보장하려면 지속적인 경계와 모니터링이 필요하다." 데이터의 전체 범위를 고려할 때 AI 시스템이 ChatGPT에서 예측한 중간 수준의 제어(50%)와 강력한 제어(75%)를 가져올 가능성이 가장 높다. 요컨대, AI는 지저분하고 때때로 위험할 수 있다. 그러나 우리는 생산성의 엄청난 이점, 데이터 관리로부터의 자유, 창의적이고 만족스러운 삶을 위한 새로운 기회를 위해 그것과 함께 사는 법을 배울 것이다.
코멘트 ChatGPT AI 언어 모델로서 효과적인 AI 제어가 가능하다고 생각하지만 AI 시스템 제어에서 100% 성공률을 달성할 가능성은 거의 없다. AI는 빠르게 진화하는 기술이므로 시간이 지남에 따라 새로운 과제와 위험이 나타날 것이다. AI를 제어하기 위한 노력에는 강력한 기술 표준 개발, 규제 프레임워크 구축, 윤리적 모범 사례 촉진 등 다양한 전략이 포함된다. 이러한 노력으로 AI와 관련된 위험을 줄일 수는 있지만 완전히 제거할 수는 없다. 또한 AI 제어의 효과는 AI의 특정 적용, AI 모델 훈련에 사용되는 데이터의 품질, AI 시스템을 사용하고 감독하는 인간 운영자의 행동을 포함한 다양한 요인에 따라 달라진다. 전반적으로 효과적인 AI 제어에 대한 전망을 약 75%로 평가한다. AI와 관련된 위험을 완화하기 위한 조치를 취할 수 있지만 예측하지 못한 결과나 오류가 발생할 가능성은 항상 존재한다. 따라서 AI의 안전하고 책임 있는 개발 및 배포를 보장하려면 지속적인 경계와 모니터링이 필요하다.
오웬 데이비스 Owen Davies 제로이지만 그것이 혼돈과 같다고는 생각하지 않는다. 우리에게 감시 자본주의를 제공한 세상은 갑자기 눈에 띄게 덜 윤리적으로 성장하지 않을 것이다. 저 배는 AI가 없어도 타히티 반쯤 간다. 이런 맥락에서 "가끔 발생하는 실패"가 어떤 것인지 잘 모르겠다. 전기 그리드의 결함? AI가 혼란스러워하고 처리되지 않은 하수를 지역 상수도에 버리는 사건이 10년에 한 번? 인식하지 못한 보행자를 납작하게 만드는 자율주행차? 그런 일이 일어날 수 있다. 복잡한 시스템에서 이러한 문제를 규제할 방법이 없다고 생각하지만, 지금부터 10년 후에는 AI가 인간 운영자보다 더 신뢰할 수 있을 만큼 정교해졌을 것이라고 강력하게 의심한다.
클레이튼 롤링스 Clayton Rawlings 그것이 우리와 동등해지면 2년 후에는 두 배, 그 다음에는 4, 8이 될 것이다. 어느 시점에서 우리가 우리보다 100배 더 지능적인 것을 능가하고 통제할 수 있다는 생각이 극히 희박해 보이기 시작한다. 우리가 실제로 지능의 필수적인 부분인 뇌 인터페이스를 사용한다면 누가 알겠는가? 기회가 있을지도 모른다.
켄트 마이어스 Kent Myers 심각한 신체적 상해를 유발할 수 있는 AI 애플리케이션(킬러 로봇, 자동 운전 자동차 등)은 아마도 이러한 기술의 광범위한 사용 또는 완전한 이점을 방해하는 수준으로 규제될 것이다. (자동 운전 승용차 중 일부는 사람이 운전하는 자동차보다 훨씬 안전한 것처럼 보이지만 허용되지 않는다.) 사람을 심각하게 조작하거나 속이거나 훔칠 수 있는 많은 애플리케이션을 제어하기 어려울 것이다. 미묘하고 점진적으로 부정적인 영향이 증가하는 애플리케이션(소셜 미디어와 유사)은 제어 및 주의 사항을 완전히 날려버릴 수 있다.
파스칼 시겔 Pascale Siegel 발명품의 광범위한 보급으로 인해 효과를 발휘할 수 없을 것 같다. 컨트롤은 진입 지점이 거의 없을 때 가장 잘 작동한다(예: 핵). 모든 사람이 기본적으로 자신의 알고리즘을 작성할 수 있게 되면 각 제작자에게 달려 있다. 컨트롤을 구현하기가 훨씬 더 어렵다. 또한 AI는 스스로 학습하도록 설계되었다. 구글은 어제 그들의 AI가 프로그래밍되지 않은 일을 하고 있다고 말했다.
데니스 부시넬 Dennis Bushnell 이 시점에서 우리는 AI를 이해하지 못하고 블랙박스이므로 제어할 수 없으며 인간 친화적인지 확인한다. 운영상 제로에 가깝다. 가능한 혼돈, 또는 아니다. AI 프론티어를 생성하는 사람들은 이 모든 것이 어떻게 작동하는지 이해하지 못하므로 제어 방법을 만들 수 없다! 그들은 실제로 중요해지기 전에 어떻게든 나쁜 문제를 감지하고 상처에 반창고를 붙이려고 노력하고 있다. 이것은 혼돈이 아니라 매우 IFFY이다! 순위에는 회색 영역이 필요하다…
피터 킹 Peter King AI 제어 주변의 허점을 찾을 매우 똑똑하고 매우 사악한 사람들이 있다. 이러한 개인이나 그룹이 악의적인 목적으로 AI를 사용하는 것을 막기에는 이미 너무 늦었을 수 있다.
마이클과 로빈 리처드슨 Michael and Robin Richardson AI를 발명하고 사용하는 글로벌 능력을 우리가 통제할 수 있을지 확신이 서지 않는다.
클레이튼 딘 Clayton Dean 일부 표준 및 제어는 시간이 지나면(예: 수년에 걸쳐) 나타날 것이지만 말은 이미 헛간에서 나왔다. 현재 일부 통제(예: 스팸)가 존재하는 오늘날의 인터넷과 마찬가지로 이러한 남용에 대한 체계적 설계 실패로 인해 효과적인 통제가 불가능하며 경쟁 이해관계자가 너무 많은 생태계가 너무 크다. 즉, 가장 명백하고 지독한 남용을 최소화(시도)하기 위한 몇 가지 통제가 있을 것이다.
빅터 모티 Victor Motti 내가 볼 수 있는 한 극단주의 이데올로기에 대한 가드레일은 ChatGPT에서 잘 작동한다. 당신이 가장 좋아하는 이데올로기에 대해 아무리 열심히 설득해도 OpenAI는 디자이너가 설정한 빨간 선을 넘지 않는다.
밀린드 치탈레 Milind Chitale AI가 상상할 수 있는 거의 모든 분야에서 지속적으로 표준을 파괴하고 있는 것처럼 분명한 것처럼 기껏해야 어떤 형태의 제어를 달성하는 것은 많은 실패와 적은 성공 사례로 인해 히트 앤 미스에 가깝다. 이는 AI가 생성 및 자가 학습 개념이기 때문임이 분명하다. 그것은 어디에서 어떤 통제가 결과를 제한하는지 배울 수 있으며 알 수 있는 올바른 도구를 가진 사람에게 비밀을 알려주는 데 결백하다. 영리한 개인이 제어 영역을 우회하는 방법을 알게 되면 교활한 사람이 AI를 신속하게 안내하여 장애물을 제거하여 컨트롤을 무의미하게 만들 수 있다.
자크 말랑 Jacques Malan 우리는 100%를 보장하는 것 외에는 선택의 여지가 없다.
웬델 월락 Wendell Wallach 많은 형태의 AI가 있으므로 제어에 대해 이야기할 때 아직 이해되지 않은 플랫폼에 구축될 수 있는 일부 미래형 AGI가 아니라 현재 생성 AI를 관리할 수 있는 능력에 대해 주로 이야기하고 있다. 생성 AI 개발에 대한 의도가 심각하지 않으면 우리가 목격하게 될 사회적 혼란의 정도는 상대적으로 높을 것이다. 70% 이상 실패는 주기적으로 계속 발생하지만 오용과 남용은 전염병이 될 것이다.
린신우 Xin-Wu Lin AI를 개발하려면 리소스가 필요하며 의도적으로 악의적인 활동에 참여하는 그룹에 특별한 주의를 기울여야 한다. "통제"는 법을 통해서만 이루어지는 것이 아니라 최근 미국이 중국에 한 것처럼 좀 더 전략적 조치가 필요하다.
발렌틴 피네다 Valentin Pineda 100%여야 한다. 그러나 필요한 투자도 반드시 이루어져야 한다.
카스트브 레이 Kastuv Ray 시간, 투자 및 경험을 통해 AI 컨트롤을 효과적으로 만들 수 있다. 완전히 효과적인 것은 없으며 때때로 기술이 실패할 수 있다. 이러한 경험을 통해 배우고 이러한 일이 다시 발생하지 않도록 조치를 취하는 것이다.
3. 실업 AI가 얼마나 심각하게 실업을 유발할 것이라고 생각하는가? AI가 성숙할 때 현대 국가의 실업률을 추정하라. 미국은 현재 약 4%이다. 전 세계 실업률은 약 8%인 경향이 있다. 대공황 당시 실업률은 약 25%에 달했다.
이 결과는 낮은 모드와 높은 모드를 모두 보여주기 때문에 흥미롭다. 높은 모드 추정치(70-100%)는 대부분의 작업을 자동화할 수 있는 AI의 "우월한" 역할을 선호하는 사람들을 다시 한 번 반영한다. 데니스 부시넬(Dennis Bushnell)은 "앞으로 AI가 모든 직업을 앗아갈 것으로 예상된다… 실업률 100%"라고 이 견해를 잘 표현했다. 파스칼 시겔(Pascale Siegel)은 "알고는 음식, 거처, 의료 서비스가 필요하지 않다. 사람이 필요하다. 우리가 일하고 돈을 벌지 않는다면 어떻게 살 수 있을까?"
하위 모드(10-30%)는 중간 조회수를 기반으로 한 정규 분포로 보이며 평균 11%이다. 린신우 (Xin-Wu Lin)는 "실업은 단기적일 것이다. 기업과 사람들은 점진적으로 적응하고 대응할 것이다."라고 언급했다. 게리 스툽맨(Gerry Stoopman)은 "...AI로 인해 실업률이 1-2% 증가할 수 있다. 그러나 실업률은 결국 AI 이전 수준으로 안정될 것이다." 이안 브라우데(Ian Browde)는 "미국에서 정치 시스템이 현재의 혼란을 계속한다면 10% 이상의 영향을 받을 수 있다."고 생각한다.
ChatGPT는 상용구 분석을 제공했지만 추정치는 제공하지 않았다... AI의 또 다른 한계를 시사한다. 이 데이터 분포로 인해 건전한 예측에 도달하기가 어렵지만, 우리는 70-100% 추정치를 평균을 왜곡하는 가능성이 매우 낮은 특이치로 경시하는 경향이 있다. 두 모드 모두 정확하다고 증명할 수 없으므로 우리의 예측은 4개의 높은 추정치보다 16개의 낮은 추정치(평균 = 11%)를 선호한다.
전반적으로 우리는 일부 국가와 산업에서 실업률이 20%의 위기 수준에 도달할 수 있다고 제안하지만 일반적으로 약 10-12% 범위의 일반적인 수준보다 약간 높을 가능성이 있다. 이 예측은 AI가 일부 일자리를 없앨 수 있지만 대부분의 일자리를 업그레이드하고 아직 예상하지 못한 새로운 일자리를 창출할 가능성이 있다는 배경 데이터의 견해를 반영한다. 이 연구는 어떤 특정 직업이 바뀔지 조사하지 않았지만 이전 TechCast 연구에서는 일상적인 직업이 완전히 자동화되고 서비스 및 지식 작업이 업그레이드될 것이라는 사실을 발견했다. 큰 이득은 창의적이고 협력적인 작업의 새로운 그룹으로 구성될 것이다. 이 이전 연구에서는 실업률이 전 세계적으로 11%에 달할 것으로 추정했으며 이는 현재 예측과 정확히 일치한다.
코멘트 ChatGPT AI 언어 모델로서 확실하게 미래를 예측할 수 있는 능력이 없다. 그러나 일부 전문가들은 AI가 고용에 미칠 잠재적 영향에 대해 우려를 제기했다. AI는 새로운 일자리를 창출할 수 있는 잠재력을 가지고 있지만 특정 산업, 특히 자동화할 수 있는 일상적이고 반복적인 작업과 관련된 근로자를 대체할 수도 있다. 실직 정도에 대한 추정치는 매우 다양하며 일부 전문가는 AI가 상당한 실업률 증가로 이어질 수 있다고 예측하는 반면 다른 전문가는 그 영향이 더 완만할 것이라고 생각한다. AI가 고용에 미치는 영향이 부문과 지역에 따라 다를 것이라는 점도 주목할 가치가 있다. AI가 고용에 미치는 영향에 대한 불확실성을 감안할 때 미래의 실업률을 정확하게 예측하는 것은 어렵다. 그러나 근로자가 변화하는 직업 시장에 적응하고 AI 개발과 함께 발생하는 새로운 기회를 활용하는 데 필요한 교육 및 훈련에 접근할 수 있도록 보장하는 것이 중요하다. 정부와 정책 입안자들은 또한 경제 전환기에 노동자들을 지원하는 정책과 프로그램을 만드는 역할을 한다.
오웬 데이비스 Owen Davies 늦어도 2040년까지는 25%에 도달할 것이며, 2035년에는 더 가능성이 높다. 궁극적으로 약 75% 이상일 것이다. 나는 우리가 이전에 다루었던 기술과 더 유사한 기술보다 AI의 채택 수준, 성숙도 및 시장 가치를 추정하는 우리의 능력에 대해 훨씬 덜 확신한다." 인간 노동자가 AI에 의해 쉽게 처리되는 일상적인 작업으로 재구성될 수 있다. 이 원칙은 AI가 상당한 새로운 힘을 얻을 때마다 거의 모든 산업에서 비즈니스 결정을 안내할 것이다. 오늘날 예상되는 11%의 순 일자리 손실은 대공황 당시의 거의 절반인 BTW에 불과할 것이다." 3D 프린터는 콘크리트에서 작동한다. 그들은 노동 조합 계약에 의해서만 인간 노동자로 제한된다. 추측컨대 오늘날 건설에 들어가는 노동자는 이것이 사실인 마지막 세대가 될 것이다. 자동화된 건설 및 조립의 경제적 이점은 이미 상당하다. 그들은 AI와 단순한 자동화가 더 이상 무시할 수 없을 때까지 점점 더 능력이 커지면서 성장한다. 향후 10년에서 15년 동안 현재 비일상적인 노동이 필요한 많은 비즈니스 프로세스가 쉬운 자동화를 위해 유사하게 재설계될 것이다.
이안 브라우데 Ian Browde 잠시 동안 현대 국가가 재교육, 재교육 및 재교육의 필요성을 이해하고 해결함에 따라 8%를 기대할 수 있다고 생각한다. 그러나 미국에서는 정치 시스템이 현재의 혼란을 계속한다면 10% 이상의 영향을 받을 수 있다.
클레이튼 롤링스 Clayton Rawlings 기계 지능에 의해 제어되는 원자 단위로 정밀한 제조가 현실이 된다면 제조 제품은 매우 저렴해진다. 보편적인 기본 소득은 갑자기 더 이상 허황된 꿈이 아니다. 사람들은 자신의 도달 범위를 제한하는 경제적 필요성 없이 개인적으로 보람을 느끼는 활동에 자유롭게 참여할 수 있다. 노동력의 80%가 빠르게 실업 상태에 있는 것이 그들에게 아직 알려지지 않은 새로운 일자리를 어떻게 창출할지 상상하기 어렵다. 나는 식량, 주거지 등과 같은 자원을 분배하는 새로운 방법이 없다면 실업이 진짜 문제가 될 것이라고 예상한다.
켄트 마이어스 Kent Myers 여러 영역의 일자리 증가로 인해 이 수치가 더 높아지지 않는다. 저임금/손길이 많이 닿는 일자리. 헛소리. 불필요한 행정, 조정, 감독, 의사소통 등을 만지작거린다. 준복지공무원. "프롬프터" 작업. ("프롬프트 엔지니어"는 웃길 정도로 복고풍의 제목이다.) 이러한 직업은 빠르게 성장하고 높은 수준을 유지할 것이다. 참견자들은 많은 계층에서 AI 기반 기능을 지시하고 시연하기 위해 고용될 것이다. 감독 제어는 비즈니스 스쿨에서 큰 주제가 될 것이다. 학생 프롬프터 팀은 "Capture the SPARC" 토너먼트에서 서로 경쟁하게 된다. "폴리셔" 작업. 노골적인 AI 환각을 감지하는 것이 점점 더 어려워질 것이지만 강화가 필요한 미묘한 미끄러짐과 생략이 있을 것이며 지루한 부분은 차려 입어야 할 것이다. (이는 "품질 관리"와는 다르다. 프롬프트의 형태로 잘 지정될 수 있는 품질 기준은 AI가 만족했을 것이다.)
파스칼 시겔 Pascale Siegel 우리는 이미 실업률을 과소 계산하고 있다(접근에 대한 더 제한적인 조건과 실업자임을 인정하기를 꺼림). 지식 경제는 많은 일자리를 대체하고 근로자 재교육을 더욱 어렵게 만들고 있다. AI는 이것을 크게 악화시킬 것이다. 그렇다. 더 많은 기술 일자리가 만들어지겠지만 일자리 손실을 상쇄하지는 못할 것이다. DM에서는 인구가 줄어들고 노동 시장에 진입하는 젊은이 수가 적기 때문에 혼란이 EM보다 더 제한적일 수 있다. 모든 곳에서 생산 경제의 변화하는 특성은 우리 정치 체제에 심각한 문제를 제기할 것이다. 알고는 음식, 피난처, 의료 서비스가 필요하지 않다. 사람들은 그렇다. 일도 안 하고 돈도 못 벌면 어떻게 살지?
데니스 부시넬 Dennis Bushnell 앞으로 AI가 일자리 다 뺏을 전망…실업률 100%? 그것은 현재 몇 가지의 기술적 예측이며 초기/부분적이며 AGI가 빠르게 개선되고 있는 현재 위치와 일치한다. 대부분의 직업에서 인간을 대체하는 데 지금보다 훨씬 더 많은 시간이 걸리지 않는다. 그것이 기술적인 투영이다. 실제로 발생하는 것은 사회적 입력의 영향을 받는다. 처음에는 AI를 사용하여 인간의 능력을 향상시킬 것이지만 많은 사람들이 값비싼 인간이 필요하지 않다고 결정하는 데 오래 걸리지 않을 수 있으며 필터링을 통해 AI의 생산성을 감소시킬 수 있다… 미정 . 실제 사회적 수치를 원하는 경우 앞으로 증가하는 곡선이다. 메트릭이 너무 단순하다.
게리 스툽맨 Gerry Stoopman 향후 10년 동안 AI로 인해 실업률이 1~2% 증가할 수 있지만 실업률은 결국 AI 이전 수준으로 안정화될 것이다.
피터 킹 Peter King AI는 AI가 인간보다 더 똑똑하고 비용이 적게 드는 산업에서 확실히 일부 실업을 유발할 것이다. 그러나 10%를 넘지 않을 것이라고 생각하며, AI로 인해 실업자가 된 사람들을 재교육하거나 재교육하기 위해서는 정부와 민간 부문의 대응에 많은 것이 달려 있을 것이다.
클레이튼 딘 Clayton Dean AI는 특히 특정 부문에서 일부 초기 실업률을 급증시킬 것이지만 새로운 기회도 제공할 것이다. 저는 AI가 전 세계 실업 추세를 심각하고 냉혹하게 변화시키는 것을 보지 않는다. 즉, 특정 산업에서 AI는 매우 파괴적일 것이다. 나는 AI가 작가, 경제학자 등과 같은 신입 수준의 '창의적인' 직책을 상당히 잠식할 것이라고 반박할 것이다. 지난 30년 동안 '정보 근로자'가 사실상 노동력 부족(임금 유지 다른 업종에 비해 상당히 높다.) AI는 그 균형을 엔트리 레벨 위치에서 자본 쪽으로 기울일 것이다. 자동화가 자동 작업자에게 어떤 역할을 했는지 상상해 보라. AI는 하단의 '창의적인' 위치를 대체한다. 재봉사, 식료품 점 계산대, 변호사 등 여러 산업 분야에서 다시 한 번 본 적이 있다. 아무것도 없는 상태에서 "다운튼 애비(Downton Abbey)"를 개념화하고 캐릭터, 옷장, 대화를 구축하는 것은 엄청난 창의적 도약이다. 그러나 이미 존재하는 50개의 다운튼(Downton) 에피소드로 구성된 LLM에서 "다운튼 애비" 에피소드를 만드는 것이 훨씬 더 쉽다. AI가 가장 확실히 할 것이다. AI는 기존의 대규모 데이터 세트에서 예측, 추세 분석 및 분석에 정말 능숙하다. 그러나 그 힘은 다음에 무엇을 예측할지 결정하는 데 있지 않다. 그것은 아마도 취업 그룹이 올 곳일 것이다. 암이나 실업률 추세를 예측한 다음 관련 요인을 찾기 위해 방대한 양의 데이터를 살펴보도록 하자. 하지만 AI는 인과관계가 있는지 진정으로 알 수 없다.
빅터 모티 Victor Motti AI가 생산성과 효율성의 기하급수적인 성장에 미치는 영향은 상당하다. 그러나 대공황을 넘어서는 수준의 불황에 대한 전망은 현실적이다. 가장 눈에 띄는 분야는 교육, 보건, 컨설팅 사업 등 지식서비스업이 될 것이다.
밀린드 치탈레 Milind Chitale 내 주장은 AI가 악마의 자가 수리 서번트 머리를 가진 괴물을 풀어놓았다는 것이다. 일반 9~5명의 사람들은 AI가 인간의 개입 없이 몇 분 안에 할 수 있는 일상적인 작업에 참석할 필요가 없기 때문에 최악의 영향을 받을 것이다. 또한 회계, 청구, 물류, 계획, 설계, 마케팅, HR 및 관리, 보안을 그 어느 때보다 급여를 받는 한 사람이 처리할 수 있다. 따라서 AI가 성숙하는 경제에서 실업률은 노동력에 큰 타격을 줄 것이다. 그러나 그것보다 더 증가하는 것은 순전히 (편익에 대한 비용) 대 (상충 관계)의 함수일 것이다. 우리는 그것이 줄어들 것이라고 믿을 수 있는 매우 인도적인 이유가 있다. 배고픔, 동료애, 연민, 사회 생활, 감정은 모두 여전히 우리 의식에 깊숙이 박혀 있으며 AI가 제공할 수 있는 단순한 물질적 이득을 위해 제거될 수 없다.
스티브 하우스만 Steve Hausman AI는 가까운 미래에 약간의 실업을 유발할 것이지만 장기적으로 볼 때 더 많은 일자리가 사라지는 것보다 더 많을 것이라고 생각한다. 이것은 다른 변혁적 기술과 다르지 않지만 현재로서는 새로운 일자리의 정확한 특성을 정의할 수 없다. 예를 들어, 사이버 보안 분야에서 수만 개의 일자리에 대한 필요성은 인터넷이 처음 개발되었을 때 예측할 수 없었다.
자크 말랑 Jacques Malan 나에게 개발도상국의 AI는 우리의 상황을 개선할 수 있는 더 빠른 경제 성장으로 이어질 것이다. 내가 볼 수 있는 한 가지 희망적인 영향은 아프리카에서 절실히 필요한 완전히 기능 장애가 있는 교육 시스템(특히 LLM AI 사용)을 우회하는 것이다.
웬델 월락 Wendell Wallach 현재 궤적에서 나는 20년 이내에 20%의 실업률을 예상하고 앞으로 나아갈수록 더 높아질 것으로 예상한다. 여기서 AI만이 유일한 요소는 아니다. 예를 들어, 기후 변화는 점점 더 큰 규모의 난민 위기를 야기할 것이다.
린신우 Xin-Wu Lin 실업은 단기적으로만 나타날 것이다. 기업과 국민은 점차 적응하고 대응할 것이다.
발렌틴 피네다 Valentin Pineda 경제적 정치적 맥락에 따라 다르다. 지금처럼 이대로 가면 실업률이 85%에 달할 수 있다. AI는 미래에 경제적인 최적의 적용점을 가지고 있다. 적용하지 않으면 일자리가 실효성을 잃고, 너무 많이 적용하면 참을 수 없는 사회적 혼란이 일어난다. 최적은 중간 어딘가에 있다. 반드시 찾아야 한다.
카스트브 레이 Kastuv Ray AI는 현재 인간이 수행하는 많은 기능을 수행하는 데 도움을 줄 수 있다. 예를 들어 보고서 및 데이터 분석을 생성하여 회계사 및 감사인의 업무량을 줄일 수 있다. AI가 있든 없든 항상 실업의 위협이 있다. AI는 감사 및 회계사와 같은 전문가가 새로운 기술을 개발하고 가치를 추가할 수 있는 새로운 영역을 살펴볼 수 있는 기회를 나타낸다. AI는 전문가가 더 창의적일 수 있는 기회를 나타낸다.
4. AGI 예측 AI는 언제쯤 인간의 모든 지능을 수행할 수 있게 될까? 이러한 일이 발생할 가능성이 있는 연도를 추정하라(연도 지정 또는 "훨씬 늦거나 없음"). 이런 일이 일어날 확률이 얼마라고 생각하는가(0-100%)?
이러한 결과는 상충된다. 2050년까지의 추정치는 AGI가 이르면 2037년에 도착할 수 있다는 평균 예측을 생성한다. 이는 몇 가지 요인에 기반한 것으로 보인다. 많은 사람들이 이 새로운 챗봇의 물결이 지금도 인간의 지능과 거의 일치한다고 확신하는 것 같다. 다른 사람들은 ChatGPT가 보여주는 진전이 너무 극적이어서 AGI가 곧 뒤따를 것이라고 생각한다. 마이클과 로빈 리차드슨은 "2035년까지 대부분의 AI가 우리의 생활 방식에 내장될 것"이라고 말했다. 마크 세븐닝(Mark Sevening)은 더 강력한 컴퓨터 아키텍처가 AGI를 실현 가능하게 만들 것이라고 생각한다.
그러나 다른 결과는 AGI를 의심하게 만든다. 아트 머레이(Art Murray)는 "AGI는 항상 계산적이며 인간 신경생리학의 자연적 능력에 근접할 수 있지만 완전히 같지는 않을 것"이라고 말했다. 발렌틴 피네다(Valentin Pineda)는 AI가 더 강력해질 것이라고 생각하지만 "인간의 자질"을 포함해서는 안 된다. 감정과 결합된 초지능은 극도로 위험하므로 피해야 한다." 우리는 AGI의 실행 가능성에 대해 심각한 의구심을 불러일으키는 "훨씬 나중에/안 한다"(46%)에 대한 비정상적으로 많은 응답에 깊은 인상을 받았다. ChatGPT도 AGI를 달성할 확률이 50%에 불과하다고 생각한다. 클레이튼 딘(Clayton Dean)은 "AI는 '인간의 지능 형태'를 더 잘 흉내낼 것이다. 하지만 아이러니, 빈정거림, 사랑 같은 것? 제 생각에는 그렇지 않다... 다음 세대에는 AI가 혁명적이기보다는 가능하게 하는 기술로 남을 것이다."
TechCast는 성숙한 AI 시스템이 2037년 +/- 5년 정도에 전체 범위의 인간 지능을 수행할 수 있도록 개선될 가능성이 있다고 결론지었다. 인간만이 더 높은 의식을 경험하기 때문에 AGI는 감정, 가치, 신념, 목적 및 기타 상위 형태의 주관적 의식을 생성할 수 없기 때문에 AGI는 항상 인간보다 열등하다고 생각한다.
요컨대, 초지능 특이점을 형성하기 위해 인간을 크게 능가하는 극적인 돌파구는 매혹적인 과학적 가능성일 수 있지만 비현실적일 수도 있다. 결국 가장 강력한 AI 시스템은 다른 기술이나 "도구"와 비슷할 수 있다. 이 기술은 강력한 기능을 제공하지만 우리가 함께 살아가는 법을 배우게 될 큰 단점도 제공한다.
코멘트 ChatGPT AI 언어 모델로서 나는 AI의 미래에 대해 결정적인 예측을 할 능력이 없다. 그러나 많은 전문가들은 인공 일반 지능(AGI) 또는 AI가 모든 인간 형태의 지능을 수행할 수 있는 능력을 달성하는 데 수년이 걸릴 어려운 과제라고 생각한다. AGI가 달성될 수 있는 시기에 대한 추정치는 매우 다양하며 일부 전문가는 향후 수십 년 내에 달성될 수 있다고 예측하는 반면 다른 전문가는 전혀 불가능할 수도 있다고 생각한다. 또한 일부 전문가들은 AGI 개발이 점진적인 프로세스일 수 있으며 AI 시스템이 시간이 지남에 따라 점차 더 많은 기능을 갖추게 될 것이라고 생각한다. 관련된 불확실성을 감안할 때 AGI가 달성될 수 있는 특정 연도를 제공하기는 어렵다. 그러나 AI 기술이 계속 발전하고 해당 분야에서 새로운 돌파구가 만들어짐에 따라 AGI가 달성될 확률은 시간이 지남에 따라 높아질 가능성이 높다고 말할 수 있다. 전반적으로 저는 AGI를 달성할 확률을 약 50%로 추정한다. 단, 이 추정치는 상당한 불확실성이 있으며 AI 분야에서 새로운 개발이 발생함에 따라 변경될 수 있다.
오웬 데이비스 Owen Davies 일반 지능을 정의하는 방법에 따라 다소 다르다. 인간의 두뇌가 하는 것처럼 정확히 기능하도록 요구한다면 아마도 절대 불가능할 것이다. 그러나 나는 그 정의가 어리석다고 생각한다. AGI가 고유한 방식으로 기능적으로 동등한 것으로 받아들여질 만큼 충분히 우리 방식대로 결과를 달성한다는 의미라면 그 가능성을 약 95%로 평가한다. 나는 거기에 도착하는 데 얼마나 걸릴지 전혀 모른다. 유효한 견적이 가능하다고 생각하지 않는다.
이안 브라우데 Ian Browde 나는 결코 말하지 않으려 고 노력하므로 이것은 오랜 시간 동안 쉬는 것이라고 말할 것이다. 내 추론은 신경과학이 빠르게 성장하고 있는 분야이고 심지어 너무 많은 것이 알려지지 않았거나 너무 적은 수에 의해 알려졌기 때문에 AI가 현명하고, 창의적이고, 감정적이고, 민감하고, 예술적인 것 등은 말할 것도 없고 똑똑해지기까지는 수십 년이 걸릴 것이라는 것이다. 인간이 할 수 있는 것처럼. 불행히도 AI가 복제하기 가장 쉬운 것은 증오(말 등), 따돌림, 음란물 등과 같은 우리의 결점일 것이다.
켄트 마이어스 Kent Myers 그러나 20년 안에 AI는 계산 가능한 솔루션이 환영받는 대부분의 업무를 처리하게 될 것이다. 이러한 솔루션은 종종 약간의 연마만으로도 충분하다. (AI 솔루션이 실현 가능하지만 환영받지 못하는 많은 작업이 임시 작업으로 남을 것이다.)
피터 킹 Peter King AI가 대부분의 인간보다 더 똑똑하고 지식이 풍부하다고 이미 믿는 사람들이 있다. 나는 10살쯤에 Arthur Mee의 백과사전을 모두 읽었고 그때 내가 모든 것을 안다고 생각했다. 아마도 AI가 정복할 수 없는 감성 지능과 같은 수준의 지능이 있을 수 있지만 2030년까지 AI 지능이 얼마나 발전했는지 놀라게 될 것이다. 확률을 90%로 하겠다.
아트 머레이 Art Murray AI는 항상 계산적이며 인간 신경생리학의 자연적 능력에 근접할 수 있지만 완전히 같을 수는 없다.
마이클과 로빈 리처드슨 Michael and Robin Richardson 2035년까지 대부분의 AI는 우리의 생활 방식에 내장될 것이다.
클레이튼 딘 Clayton Dean 인공지능은 '인간 지능의 형태'를 모방하고, 예측하고, 트렌드를 파악하는 데 점점 더 나아질 것이다. 하지만 아이러니, 빈정거림, 사랑? 나는 그렇게 생각하지 않는다. 적어도 현재의 디지털 컴퓨팅에서는 그렇지 않다. 아마도 우리가 양자 및/또는 신경 혁명에 더 깊이 들어가면 AI가 이것을 할 수 있을 것이다. 오늘날의 슈퍼컴퓨터도 날씨와 같은 복잡한 시스템을 정확하게 예측하는 것은 거의 불가능하다. 4분의 1 안에 들어갈 수 있고(많은 열을 발산하지 않음) 신경 인터페이스를 허용하는 양자 컴퓨터를 갖게 된다면? 그것은 혁명이다. 그러나 나는 다음 세대를 위해 AI가 혁명적이기보다는 가능하게 하는 기술로 남아 있다고 생각한다.
빅터 모티 Victor Motti AI 개발의 다음 과제는 다양한 주요 단계에 집중하여 자발적인 AI를 만드는 것이다. 이러한 단계에는 비지도 학습 개선, 전이 학습 및 멀티태스킹 능력 향상, 상식 추론 통합, 감성 지능 개발, 구현된 AI 탐색, 강화 학습 개선, 신경망을 상징적 추론 시스템과 통합, 메타 학습 및 자기 개선 지원, 설명 가능한 우선 순위 지정이 포함된다. AI, 윤리 및 안전 고려 사항 강조. 이러한 영역의 발전으로 인간 및 환경과 효과적으로 상호 작용하는 보다 자연스럽고 적응력이 뛰어난 AI 시스템이 탄생할 것이다.
밀린드 치탈레 Milind Chitale AI가 만든 경로를 따라 천천히 걷고 달리는 방법을 배우면서 멀지 않은 미래에 입력을 평가하고 입력을 명확하게 지정할 수 있는 정교한 시스템에 인간의 마음 진행을 결합할 수 있는 수단과 방법이 있을 것이다. 데이터 사일로: 논리적 사고, 감정적 사고, 창의적 사고, 운동 명령, 비자발적 사고, 꿈, 상상, 지식의 종합, 지식의 동화 등. 이러한 데이터 사일로는 우리가 일상적으로 직면하는 상황에서 특정 결과를 선택하게 만드는 일반적인 인간의 사고 프로세스 및 관련 요인을 기계 학습하는 AI의 빌딩 블록이 될 것이다. 그 후 좋은 개발자 팀이 실제 인간과 구분할 수 없는 결과를 생성하는 데 그리 오래 걸리지 않는다.
자크 말랑 Jacques Malan 나는 여기 커즈와일(Kurzweil) 캠프에 완전히 있다. 2045 ± 5년. 100% 확률.
발렌틴 피네다 Valentin Pineda 레이 커즈와일(Ray Kurzweil)은 2033-2035년경에 가장 좋은 추정치를 제공한다. 나는 감정이 아니라 계산 능력을 의미한다. 감정과 결합된 초지능은 극도로 위험하므로 피해야 한다.
마크 세븐닝 Mark Sevening [AGI는 실현 가능해야 함] 양자 컴퓨팅의 사용 확대
5. 사회적 영향 전반적으로 AI 혁명이 사회 전반에 어떤 영향을 미칠 것이라고 생각하는가? -10에서 +10까지의 척도로, 여기서 -10은 재난이고 +10은 안정적인 번영이다.
응답은 척도의 양쪽 끝에 걸쳐 있다. 부정적인 전망은 클레이튼 롤링스(Clayton Rawlings)에 의해 언급되었다. "소셜 미디어에 대한 지난 10년의 경험이 어떤 지표라면 우리는 더 깊은 고립과 우울증의 위험에 처해 있다. AI가 상상할 수 있는 모든 망상에 부응하는 동안 사람들은 더 깊은 정보 사일로로 분리될 것이다." 그런 다음 긍정적인 면에서 밀린드 치탈레(Milind Chitale)는 "완만한 포화 영역을 갖는 가파른 곡선에서 모든 것이 전반적으로 좋은 방향으로 안정화될 것이라는 데 전혀 의심의 여지가 없다."라고 생각한다. 카스트브 레이(Kastuv Ray)는 "AI는 전문가가 더 창의적일 수 있는 기회를 나타낸다."라고 말한다. 응답자의 +3에 비해 ChatGPT가 동일한 척도에서 +5를 추정한 것은 매우 놀라운 일이다. 꽤 좋은 동의, 평균 + 4. 우리는 사회적 안정과 번영의 상당한 이득을 예측하는 데 자신이 있다.
코멘트 ChatGPT AI 언어 모델로서 나는 AI 혁명이 사회에 미치는 영향이 복잡하고 다면적이며 긍정적인 결과와 부정적인 결과를 모두 가져올 것이라고 믿는다. AI는 의료 결과 개선, 생산성 증가, 경제 성장 향상과 같은 상당한 이점을 가져올 수 있는 잠재력을 가지고 있지만 실직, 사생활 침해, 편견과 같은 심각한 위험도 내포하고 있다. 전반적으로 저는 AI 혁명이 사회에 미치는 영향을 약 +5로 평가한다. AI는 효율성 및 혁신 향상과 같은 많은 이점을 가져올 수 있는 잠재력이 있지만 해결해야 할 중요한 과제도 내포하고 있다. 위험을 최소화하면서 AI의 이점을 실현하려면 책임감 있고 윤리적인 AI 개발을 촉진하는 효과적인 정책 및 규제 프레임워크를 개발하는 것이 중요하다. 또한 근로자가 변화하는 직업 시장에 적응하는 데 필요한 교육 및 훈련에 접근하고 AI 개발과 함께 발생하는 새로운 기회를 활용할 수 있도록 하기 위한 지속적인 노력이 필요할 것이다.
오웬 데이비스 Owen Davies 나는 그것이 기후 변화와 같을 것이라고 생각한다. 어떤 지역에서는 더 좋고 다른 지역에서는 더 나쁘고 거의 모든 곳에서 극단에 빠지기 쉽다. 이 점에서 나는 그것이 적어도 지난 20년 동안 우리가 보아온 일부 사회적 경향과 거의 구별할 수 없다는 것을 발견했다.
클레이튼 롤링스 Clayton Rawlings 소셜 미디어에 대한 지난 10년의 경험이 어떤 지표라면 우리는 더 깊은 고립과 우울증의 위험에 처해 있다. AI가 상상할 수 있는 모든 망상에 부응하는 동안 사람들은 정보 사일로로 더 깊이 분리될 것이다. AI가 난장판을 만드는 데 책임이 있다면 아마도 AI는 아직 보이지 않는 솔루션을 제공할 수 있다. 물어보는 것도 나쁘지 않을 것이다.
켄트 마이어스 Kent Myers 사람들은 더 많은 여가를 위해 자유로워질 것이며 AI는 기후에 대한 압력을 간접적으로 완화할 수도 있다. 보안과 인간의 규칙 준수는 향상되지만 "스마트 시티"에서의 일상적인 경험은 답답하게 느껴질 것이다.
파스칼 시겔 Pascale Siegel 완전한 혼돈은 아니지만 전반적으로 부정적인 이유는 중단이 근본적으로 변경되지 않는 한 우리의 거버넌스 시스템이 대처할 수 없는 부정적인 외부 효과를 흔적에 남길 것이기 때문이다.
데니스 부시넬 Dennis Bushnell 절대적으로 방대하고 엄청난 장점과 단점이 모두 있다… 전반적으로 사회적 영향이 5위일까? -10에서 +10까지. 전반적인 영향은 많은 상품과 많은 불량의 합이 될 것이므로 ZERO, 그래서 무의미. 다시 말하지만 메트릭은 유용하지 않다.
피터 킹 Peter King 대부분의 신기술과 마찬가지로 AI는 긍정적인 영향과 부정적인 영향을 모두 가질 것이다. 긍정적인 점은 빅 데이터 관리, 산업 생산성, 지식 회상, 휴머노이드 로봇 공학과 같은 영역에 있을 것이다. 네거티브는 혼돈에 가까울 것이다. 무력 충돌, 범죄, 심지어 전쟁을 유발할 수 있다. 허위 정보는 선거 결과를 바꿀 수 있으며 다양한 불의로 이어질 수 있다. 악한 마음이 불러일으킬 수 있는 것이 무엇이든 AI는 불가피한 행동을 촉진할 것이다.
클레이튼 딘 Clayton Dean 지난 20년 동안의 기본 기술 발전인 '인터넷'의 대부분은 인류에게 심오하고 긍정적인 영향을 미치지 못했다. 그리고 CRISPR, 건강 발전 등과 같은 것에서 실질적으로 긍정적인 결과가 없다고 제안하려는 것이 아니다. 놀라운 혁신이 많이 있다. 하지만 어제 설문조사에서 사람들의 19%만이 "행복하다"고 스스로 기술한 것으로 나타났다. 왜? 사실 이것에 대해 더 자세히 살펴보면 19%, 이 사람들의 대다수는 상대적으로 저렴한 주택, 교육의 혜택을 받고 대규모 은퇴를 즐기고 있는 주로 65세 이상이었다. 따라서 전화, TV, 에어컨 등에 대한 많은 놀라운 혁신을 공매도하지 않고 기술은 반복적으로 인간의 경험을 긍정적으로 바꾸는 데 실패했다. 인터넷은 '정보를 민주화했지만 지금까지 이것은 사람들을 덜 행복하고, 더 부족하고, 덜 사회적이고, 분열을 더 잘 인식하게 만드는 경향이 있다. 로봇 공학에는 반복적인 자동화 작업이 있다. 인터넷 덕분에 지구 반대편에 있는 사람들에게 이메일을 보낼 수 있다.... 그러나 합법적인 모든 이메일에 대해 20개의 스팸 이메일도 받는다. 언급된 모든 AI는 생활 수준을 높일 많은 놀라운 발전을 가져올 것이다. 그러나 나는 그것이 근본적으로 더 많은 행복과 더 많은 인간 의식을 가져올 것이라고 확신하지 못하며 확실히 다른 기술적 진보(예: 양자 컴퓨팅에 관한 나의 진술) 없이는 그렇지 않을 것이다.
최영진 지정학적 경쟁이 아닌 선의의 국제 협력이 그 어느 때보다 필요한 인류 역사의 시기에 대규모 언어 모델 형태의 새로운 AI가 등장했다. "AI 딜레마"에 설득력 있게 등장하는 "사회적 딜레마"의 제작자로서 이 역사적인 사건을 통해 사피엔스 초강대국은 인류의 크립토나이트가 되는 과정에 있다(아직 그렇지 않은 경우). 기록된 모든 미디어, 음성 또는 비디오, 텍스트 또는 데이터 포인트가 딥 페이크될 가능성이 있기 때문에 많은 인간은 이제 자신의 개인적인 경험 이외의 진실의 출처를 불신하거나(신뢰할 수 있는 에코 챔버 당국 제외) 사이비 과학적 대량 혼란과 잘못된 정보에 취약한다. 우리는 서로 다른 사회 집단의 인식된 진실이 주로 목격자 계정과 개인의 신뢰도를 기반으로 했던 중세 시대로 효과적으로 시간을 거슬러 올라간다. 마녀사냥, 이데올로기적 근본주의, 비합리적인 미신의 시대였다. 실제로 물리적 세계에 대한 과학적 이해에 대한 자신감과 신뢰의 상실은 새로운 AI 시대의 가장 큰 위험 중 하나일 수 있다.
빅터 모티 Victor Motti AI 정책 결정은 지능형 기계가 인류에게 미치는 영향에 대한 질문을 제기한다. 인간을 조종하고 설득할 수 있는 최고의 지능을 가진 기계의 잠재력은 매력적이면서도 걱정스럽다. 미래의 시나리오에서 사람들은 고급 AI에 의해 직접 제어되어 연결 해제 능력에 도전할 수 있다. 전력 역학의 이러한 변화는 인간과 기술 간의 균형에 대한 중요한 질문을 촉발한다. 민주주의와 전문성 집행을 결합한 기술주의는 거버넌스 문제에 대한 잠재적인 솔루션으로 간주된다. 그러나 완전히 새로운 형태의 정부가 하룻밤 사이에 등장할 것 같지는 않다. 대신 기존 개념이 새로운 기술과 혼합되어 거버넌스의 미래를 형성할 것이다. 열린 대화와 비판적 사고는 AI가 인류에게 최선의 이익을 제공하도록 보장하는 데 중요한다.
밀린드 치탈레 Milind Chitale 현재 우리는 AI와 관련하여 덜 긍정적이지는 않지만 덜 긍정적인 참여와 함께 많은 부정적인 것을 보고 있지만 완만한 포화 영역을 가질 가파른 곡선에서 모든 것이 전반적으로 좋은 방향으로 안정될 것이라는 데 전혀 의심의 여지가 없다.
웬델 월락 Wendell Wallach AI 안전 및 제어를 보장하려는 의도의 심각성을 [긍정적인 영향으로] 전환할 수 있다. 치명적인 자율 무기가 제한되지 않고 의미 있게 통제되지 않는다면 현재의 궤도는 악화될 수 있다.
린신우 Xin-Wu Lin AI는 인간의 생산성 향상을 도울 것이다.
마크 세븐닝 Mark Sevening AI에는 이점이 있을 것이며 인간도 그것을 사용하여 이기적인 욕구를 더욱 심화시킬 것이다.
카스트브 레이 Kastuv Ray 더 나은 일을 할 수 있는 많은 기회를 제공한다.
게리 스툽맨 Gerry Stoopman AI 시스템이 해당 시스템에 정보를 입력(수집)할 때 학문적, 윤리적, 법적, 과학적 및 기술적 표준을 엄격히 준수하여 특정 목적(예: 의학적 진단)을 위해 개발된 경우 그 결과는 주로 긍정적이어야 한다. 그러나 AI 시스템에 정보를 제공하는 데 제어가 부과되지 않는 경우(예: 부엌 싱크대를 제외한 모든 접근 방식) "쓰레기 속의 쓰레기 배출"이라는 오래된 격언이 적용될 것이며 그 결과는 주로 부정적일 것이다.
6. 인간의 영향. 전반적으로 AI 혁명이 일반적으로 인간의 성격과 기술에 어떤 영향을 미칠 것이라고 생각하는가? -10에서 +10까지의 척도로, 여기서 -10 = 구식, 로봇 등, +10 = 더 지능적, 창의적 등 결과는 다시 다소 모호하다. 전문가 중 일부는 심각한 위험을 보고 있다. 마크 세븐닝(Mark Sevening)은 "AI는 인간이 무엇인지 재정의할 것이다. 정보를 쉽게 사용할 수 있다면 인간의 지능은 더 높은 사고를 감소시킬 것이다."고 말했다. 마이크 라이언(Mike Ryan)은 다음과 같이 생각한다. 다른 사람들은 낙관적인 가능성을 본다. 빅터 모티(Victor Motti)는 "강력한 비전은 ... 인간과 비인간 모두의 자유 수준을 높이는 것과 관련이 있다. 새로운 '축' 시대는 ... 인간을 분산시키고 모든 생명체가 자기 조절 시스템에 기여하는 '행성 지성'의 개념을 수용한다." 그리고 이안 브라우데(Ian Browde)는 "우주 탐사, 원격 의료, 자율 시스템(자동차 등), 영성, 블록체인과 같은 발전과 함께... 인간은 우리의 두뇌를 더 좋고, 더 풍부하고, 더 창의적으로 만드는 새로운 방법을 발견할 것이다." ChatGPT의 추정치 +5와 당사의 추정치 +4 사이에 훨씬 더 가까운 일치가 있음을 알 수 있다. 놀랄 만한! 결론은 분명해 보인다. AI는 인간이 더 지능적이고 창의적이 되도록 도울 가능성이 높다.
코멘트 ChatGPT AI 언어 모델로서 AI 혁명이 인간의 성격과 기술에 미치는 영향은 긍정적이기도 하고 부정적이기도 하다. 한편으로 AI는 일상적인 작업을 자동화하고 인간이 보다 창의적이고 만족스러운 활동에 참여할 수 있는 시간을 확보할 수 있는 잠재력을 가지고 있다. 또한 인간의 지능과 창의성을 강화하여 문제를 보다 효과적으로 해결하고 새로운 통찰력을 생성할 수 있다. 반면에 AI는 특히 자동화할 수 있는 일상적이고 반복적인 작업과 관련된 인간의 특정 기술과 특성을 쓸모없게 만들 위험이 있다. 또한 취업 시장에서 가치 있는 기술과 능력 유형의 변화에 기여하여 적응에 필요한 교육과 훈련이 부족한 사람들에게 잠재적으로 불리하게 작용할 수 있다. 전반적으로 AI 혁명이 인간의 성격과 기술에 미치는 영향을 약 +3으로 평가한다. AI는 우리의 능력을 향상시키고 보다 창의적이고 만족스러운 활동에 참여할 수 있는 잠재력을 가지고 있지만, 부정적인 결과를 최소화하면서 AI의 이점을 실현하기 위해 해결해야 할 위험과 과제도 내포하고 있다.
오웬 데이비스 Owen Davies 나는 이 질문에 잘 대답할 수 없다. 아무나 할 수 있을지 모르겠다. 너무 많은 매우 다양한 요소를 하나의 값으로 압축하는 것 같다. 그것이 가치가 있는 것이 무엇이든 거의 아무것도 아니기 때문에, 우리 가운데 비 창의적이고 비생산적인 사람들은 비창의적으로 남을 것이며 아마도 훨씬 덜 생산적이 될 것이다. 창의적인 천재들과 타고난 추진력은 여전히 창의적이고 생산적일 것이지만 그들의 능력을 증폭시킬 새로운 도구를 갖게 될 것이다. 중간에 있는 사람들은 오늘날의 그들과 마찬가지로 다양하게 적절한 삶의 질을 가지고 하루를 보내려고 노력할 것이다.
이안 브라우데 Ian Browde 나는 우주 탐사, 원격 의료, 자율 시스템(자동차, 트럭, 비행기, 농기계, 제조업 등)과 같은 다른 발전과 함께 영성, 블록체인, 암호화폐 등 인간은 더 좋고, 더 풍부하고, 더 창의적이기 위해 우리의 두뇌를 사용하는 새로운 방법을 발견할 것이다. <저작권자 ⓒ 사단법인 유엔미래포럼 무단전재 및 재배포 금지>
인공지능, 위험, 약속, 특이점, 실업, 사회적 영향 관련기사목록
|
많이 본 기사
AI마인드봇 많이 본 기사
최신기사
|