2025년 인공지능 전망
2024년에 인공지능(AI)은 계속해서 크고 놀라운 진전을 이루었다.
사람들은 죽은 자의 AI "부활"과 대화하기 시작했고, AI 칫솔을 사용하고 AI로 구동되는 예수에게 고백했다. 한편, ChatGPT를 만든 회사인 OpenAI는 1,500억 달러의 가치가 있었고 인간보다 더 유능한 고급 AI 시스템을 개발하는 길에 있다고 주장했다. Google의 AI 회사인 DeepMind도 비슷한 주장을 했다.
이것들은 작년에 있었던 몇 가지 AI 이정표에 불과하다. 이것들은 기술이 얼마나 거대해졌는지뿐만 아니라 그것이 광범위한 인간 활동을 어떻게 변화시키고 있는지도 강화한다.
그렇다면 2025년에 AI 세계에서 무슨 일이 일어날 것으로 기대할 수 있을까?
신경 스케일링
신경 스케일링 법칙은 AI 시스템의 능력이 시스템 크기가 커지고 더 많은 데이터로 훈련됨에 따라 예측 가능하게 증가할 것이라고 시사한다. 이러한 법칙은 지금까지 ChatGPT와 같은 1세대에서 2세대 생성 AI 모델로의 도약을 이론화했다.
우리와 같은 일상적인 사용자는 채팅봇과 즐거운 채팅을 나누는 것에서 AI "조종사"와 함께 프로젝트 제안서 초안을 작성하거나 이메일을 요약하는 것과 같은 유용한 작업을 하는 것으로의 전환으로 이를 경험했다.
최근 이러한 스케일링 법칙은 정체된 것으로 보인다. AI 모델을 더 크게 만드는 것이 더 이상 더 유능하게 만드는 것은 아니다.
OpenAI의 최신 모델인 o1은 더 많은 컴퓨터 성능을 사용하여 더 어려운 문제를 "생각"함으로써 크기 정체를 극복하려고 시도한다. 그러나 이는 사용자의 비용을 증가시킬 가능성이 높으며 환각과 같은 근본적인 문제는 해결하지 못한다.
스케일링 정체는 인간보다 더 유능한 AI 시스템을 구축하는 방향으로 나아가는 데 환영할 만한 일시 정지이다. 이를 통해 강력한 규제와 글로벌 합의가 따라잡을 수 있다.
훈련 데이터
대부분의 현재 AI 시스템은 훈련을 위해 엄청난 양의 데이터에 의존한다. 그러나 대부분의 고품질 소스가 고갈되면서 훈련 데이터는 한계에 부딪혔다.
기업들은 AI가 생성한 데이터 세트에서 AI 시스템을 훈련하는 실험을 진행하고 있다. 이는 이미 편향된 AI를 더욱 악화시킬 수 있는 새로운 "합성 편향"에 대한 이해가 심각하게 부족한 데도 불구하고 그렇다.
예를 들어, 올해 초에 발표된 연구에서 연구자들은 합성 데이터로 훈련하면 편향되지 않은 데이터 세트로 시작했음에도 불구하고 정확도가 떨어지고 소외된 집단을 불균형적으로 배제하는 모델을 생성하는 방법을 보여주었다.
기술 기업이 고품질의 진짜 데이터를 필요로 하기 때문에 개인 데이터 소유권에 대한 주장이 강화된다. 이를 통해 사람들은 개인 데이터에 대한 통제력을 훨씬 더 많이 얻을 수 있으며, 예를 들어 적절한 정책 프레임워크 내에서 AI 모델을 훈련하기 위해 기술 기업에 판매할 수 있다.
로봇공학
올해 테슬라는 AI 구동 휴머노이드 로봇을 발표했다. 옵티머스로 알려진 이 로봇은 여러 가지 집안일을 할 수 있다.
테슬라는 2025년에 이 로봇을 자사 내부 제조 작업에 투입하고, 2026년에는 외부 고객을 대상으로 대량 생산을 시작할 계획이다.
테슬라의 옵티머스 로봇은 2026년에 고객에게 출시될 예정.
HU Art and Photography/Shutterstock
세계에서 두 번째로 큰 민간 고용주인 Amazon도 창고 운영에 75만 대 이상의 로봇을 배치했는데, 여기에는 사람 주변에서 독립적으로 작업할 수 있는 최초의 자율 주행 모바일 로봇도 포함된다.
일반화, 즉 특정 작업을 나타내는 데이터 세트에서 학습하고 이를 다른 작업으로 일반화하는 능력은 로봇 공학의 근본적인 성능 격차였다.
이제 AI가 이를 해결한다.
예를 들어 Physical Intelligence라는 회사는 명시적으로 훈련받지 않았음에도 불구하고 건조기를 내리고 옷을 쌓아 놓을 수 있는 모델 로봇을 개발했다. 저렴한 가정용 로봇에 대한 사업적 사례는 여전히 강력하지만 제작 비용은 여전히 비싸다.
자동화
계획된 미국 정부 효율성부는 연방 기관의 수를 줄이기 위한 추진에서 상당한 AI 자동화 의제를 추진할 가능성이 높다.
이 의제에는 민간 부문에서 "에이전트 AI"를 실현하기 위한 실용적인 프레임워크 개발도 포함될 것으로 예상된다. 에이전트 AI는 완전히 독립적인 작업을 수행할 수 있는 시스템을 말한다.
예를 들어, AI 에이전트는 이메일을 읽고 우선순위를 정하고 답장하고, 회의를 조직하고, 작업 항목과 알림을 후속 조치하는 등 받은 편지함을 자동화할 수 있다.
규제
새로 선출된 미국 대통령 도널드 트럼프의 임기 행정부는 AI 규제 노력을 축소할 계획이며, 그 시작으로 퇴임하는 대통령 조 바이든의 AI에 대한 행정 명령을 폐지할 예정이다. 이 명령은 혁신을 촉진하는 동시에 피해를 제한하려는 시도로 통과되었다.
트럼프 행정부는 또한 AI 독점 기업과 기타 미국 산업이 공격적인 혁신 의제를 추진하도록 장려하는 개방 시장 정책을 개발할 것이다.
그러나 다른 곳에서는 2025년에 유럽 연합의 AI법이 시행되어 허용할 수 없는 위험을 초래하는 AI 시스템을 금지하는 것으로 시작할 것이다. 이어서 OpenAI의 ChatGPT와 같이 체계적 위험을 초래하는 생성 AI 모델에 대한 투명성 의무가 도입될 것이다.
호주는 EU와 매우 유사하게 AI 규제에 대한 위험 기반 접근 방식을 따르고 있다. 9월에 발표된 고위험 AI에 대한 10가지 필수 가드레일 제안은 2025년에 발효될 수 있다.
직장 생산성
많은 초기 실험에서 생산성을 높일 수 있다는 것이 밝혀지면서 직장에서 다양한 AI "조종사" 시스템에 대한 라이선스에 계속 투자할 것으로 예상할 수 있다.
하지만 기술이 적절하게 사용되도록 하려면 정기적인 AI 리터러시 및 유창성 교육이 수반되어야 한다.
2025년에 AI 개발자, 소비자 및 규제 기관은 맥쿼리 사전에서 2024년에 올해의 단어로 꼽은 ' 엔시티피케이션(enshittification)'을 염두에 두어야 한다.
이는 온라인 플랫폼과 서비스가 시간이 지남에 따라 꾸준히 악화되는 과정이다. AI에 이런 일이 일어나지 않기를 바란다.