디지털 동반자: AI를 인간화하면 우리 스스로를 비인간화할 수 있다.
아일랜드 작가 존 코놀리는 이렇게 말했다:
인간의 본성, 본질은 다른 사람의 고통을 자신의 고통처럼 느끼고 그 고통을 없애기 위해 행동하는 것이다.
우리 역사의 대부분 동안 우리는 공감이 인간만의 고유한 특성, 즉 우리를 기계와 다른 동물과 차별화하는 특별한 능력이라고 믿었다. 하지만 이제 이 믿음이 도전받고 있다.
AI가 우리 삶의 더 큰 부분을 차지하고 가장 친밀한 영역에도 들어오면서 우리는 철학적 난제에 직면하게 되었다. AI에 인간적 특성을 부여하는 것이 우리 자신의 인간적 본질을 약화시킬 수 있을까? 우리의 연구에 따르면 그럴 수 있다.
동반자 관계의 디지털화
최근 몇 년 동안 Replika와 같은 AI "동반자" 앱은 수백만 명의 사용자를 유치했다. Replika를 사용하면 사용자가 친밀한 대화에 참여할 수 있는 맞춤형 디지털 파트너를 만들 수 있다. Replika Pro를 구매하는 회원은 AI를 "로맨틱한 파트너"로 전환할 수도 있다.
물리적 AI 동반자도 뒤처지지 않는다. JoyLoveDolls와 같은 회사는 가슴 크기, 민족성, 움직임 및 신음과 유혹과 같은 AI 응답을 포함한 사용자 지정 기능이 있는 대화형 섹스 로봇을 판매하고 있다.
현재는 틈새 시장이지만 역사를 보면 오늘날의 디지털 트렌드가 내일의 글로벌 표준이 될 것이다. 성인 4명 중 1명이 외로움을 경험함에 따라 AI 동반자에 대한 수요가 증가할 것이다.
AI를 인간화 하는 것의 위험
인간은 오랫동안 인간적 특성을 인간이 아닌 존재에 기인해 왔다. 이러한 경향을 의인화라고 한다. ChatGPT와 같이 "생각"하고 "느끼는" 것으로 보이는 AI 도구로 이를 수행하는 것은 놀라운 일이 아니다. 하지만 AI를 인간화하는 것이 왜 문제일까?
한 가지는, AI 회사가 인간과 유사한 존재와 애착을 형성하는 우리의 경향을 이용할 수 있다는 것이다. Replika는 "관심을 갖는 AI 동반자"로 마케팅된다. 그러나 법적 문제를 피하기 위해 회사는 다른 곳에서 Replika가 지각력이 없으며 수백만 번의 사용자 상호 작용을 통해 학습할 뿐이라고 지적한다.
Replika 도움말 페이지의 모순된 정보와 광고의 스크린샷.
일부 AI 회사는 자사의 AI 보조원이 공감 능력이 있고 심지어 인간의 필요를 예측할 수 있다고 공개적으로 주장한다. 이러한 주장은 오해의 소지가 있으며 동반자를 찾는 사람들을 이용할 수 있다. 사용자는 AI 동반자가 자신을 진정으로 이해한다고 믿으면 감정적으로 깊이 투자할 수 있다.
이는 심각한 윤리적 문제를 야기한다. 사용자는 AI 동반자에게 어떤 종류의 지각을 부여한 후에는 AI 동반자를 삭제(즉, "포기"하거나 "죽이기")하는 것을 주저할 것이다.
하지만 사용자가 더 이상 그것을 감당할 수 없거나 그것을 운영하는 회사가 문을 닫는 경우와 같이 해당 동반자가 예기치 않게 사라지면 어떻게 될까? 동반자가 실제가 아닐 수 있지만 그에 따른 감정은 실제이다.
공감 - 프로그래밍 가능한 출력 이상
공감을 프로그래밍 가능한 출력으로 축소함으로써, 우리는 공감의 진정한 본질을 약화시킬 위험이 있을까? 이에 답하기 위해, 먼저 공감이 실제로 무엇인지 생각해 보겠다.
공감은 다른 사람에게 이해와 관심을 가지고 대응하는 것을 포함한다. 그것은 친구가 마음의 아픔에 대해 말할 때 친구의 슬픔을 공유할 때, 또는 당신이 아끼는 사람에게서 기쁨이 발산되는 것을 느낄 때이다. 그것은 심오한 경험이며, 풍부하고 단순한 측정 형태를 넘어선다.
인간과 AI의 근본적인 차이점은 인간은 진정으로 감정을 느끼는 반면, AI는 감정을 시뮬레이션할 수만 있다는 것이다. 이것은 주관적인 인간 경험이 뇌의 물리적 과정에서 어떻게 발생하는지에 대한 의문을 제기하는 의식의 어려운 문제를 다룬다.
과학은 아직 의식의 어려운 문제를 해결하지 못했다. Shutterstock
AI는 이해를 시뮬레이션할 수 있지만, 그것이 가지고 있다고 주장하는 "공감"은 공감 언어 패턴을 모방하는 프로그래밍의 결과이다. 안타깝게도 AI 제공자는 사용자를 속여 겉보기에 공감하는 제품에 애착을 갖게 하는 데 재정적 인센티브가 있다.
비인간화 가설
우리의 "비인간화 가설"은 인간을 기계가 복제할 수 있는 기본적인 기능으로 축소하려는 시도와 함께 발생하는 윤리적 우려를 강조한다. AI를 인간화할수록 우리 자신을 비인간화할 위험이 커진다.
예를 들어, 감정 노동을 위해 AI에 의존하면 실제 관계의 불완전성에 대한 관용이 약해질 수 있다. 이는 사회적 유대감을 약화시키고 심지어 감정적 탈숙련으로 이어질 수 있다. 미래 세대는 공감 능력이 떨어질 수 있다. 감정적 기술이 계속해서 상품화되고 자동화됨에 따라 필수적인 인간적 특성에 대한 이해를 잃을 수 있다.
또한 AI 동반자가 더 흔해짐에 따라 사람들은 이를 사용하여 실제 인간 관계를 대체할 수 있다. 이는 외로움과 소외감을 증가시킬 가능성이 높으며, 이러한 시스템이 도움이 된다고 주장하는 바로 그 문제이다.
AI 회사가 감정 데이터를 수집하고 분석하는 것도 상당한 위험을 초래한다. 이러한 데이터는 사용자를 조작하고 이익을 극대화하는 데 사용될 수 있기 때문이다. 이는 우리의 프라이버시와 자율성을 더욱 침식하여 감시 자본주의를 다음 단계로 끌어올릴 것이다.
제공자 책임 추궁
규제 기관은 AI 제공자의 책임을 추궁하기 위해 더 많은 노력을 기울여야 한다. AI 회사는 특히 사용자의 감정적 취약성을 악용할 위험이 있을 때 AI가 할 수 있는 일과 할 수 없는 일에 대해 솔직해야 한다.
"진정한 공감"에 대한 과장된 주장은 불법화되어야 한다. 그러한 주장을 하는 회사는 벌금을 물어야 하며, 재범자는 문을 닫아야 한다.
데이터 개인정보 보호 정책도 명확하고 공정해야 하며, 회사가 사용자 생성 콘텐츠를 악용할 수 있는 숨겨진 조건이 없어야 한다.
우리는 인간 경험을 정의하는 고유한 특성을 보존해야 한다. AI는 삶의 특정 측면을 향상시킬 수 있지만, 진정한 인간 관계를 대체할 수는 없고, 대체해서도 안 된다.