새로운 AI가 영유아 학습 및 발달의 비밀을 밝혀내다.
유아의 움직임에 대한 AI 분석은 초기 발달 단계에 대한 중요한 통찰력을 보여주며, 학습에서 발 움직임의 중요성을 강조한다.
컴퓨팅과 인공지능의 최근 발전과 유아 학습에 대한 새로운 통찰력은 머신러닝 및 심층 학습 기술을 사용하여 유아가 무작위 탐색 움직임에서 의도적인 행동으로 어떻게 전환되는지 연구할 수 있음을 시사한다. 지금까지 대부분의 연구는 아기의 자발적인 움직임에 초점을 맞춰서 안절부절못하는 행동과 안절부절못하지 않는 행동을 구별했다.
유아의 초기 움직임은 혼란스러워 보일 수 있지만, 유아가 주변 환경과 상호 작용할 때 의미 있는 패턴을 보여준다. 그러나 우리는 여전히 유아가 주변 환경과 의도적으로 어떻게 상호 작용하는지, 목표 지향적 행동을 안내하는 원칙에 대한 이해가 부족하다.
연구자들은 유아의 발에 다채로운 모바일을 부착하고 Vicon 3D 모션 캡처 시스템으로 움직임을 추적하여 유아가 어떻게 의도적으로 행동하는지 탐구했다. 출처: 플로리다 애틀랜틱 대학교
AI를 통한 영아 상호작용 이해
영아가 어떻게 의도적으로 행동하기 시작하는지 알아보기 위해 플로리다 애틀랜틱 대학교의 연구원과 협력자들은 1960년대 후반부터 사용된 발달 연구 기법인 아기 모바일 실험을 수행했다. 이 실험에서 다채로운 모바일을 영아의 발에 살짝 고정하고, 영아가 발로 차면 모바일이 움직이면서 영아의 행동을 보는 것과 연결한다. 이러한 설정은 연구자들이 영아가 움직임을 제어하는 방식을 이해하고 주변 환경에 영향을 미치는 능력을 발견하는 데 도움이 된다.
이 연구에서 연구자들은 AI 도구가 영아 움직임 패턴의 복잡한 변화를 포착할 수 있는지 테스트했다. Vicon 3D 모션 캡처 시스템을 사용하여 추적한 영아 움직임은 자발적인 행동에서 모바일이 움직일 때의 반응에 이르기까지 다양한 유형으로 분류했다. 연구자들은 다양한 AI 기술을 적용하여 어떤 방법이 다양한 상황에서 영아 행동의 뉘앙스를 가장 잘 포착하는지, 그리고 움직임이 시간이 지남에 따라 어떻게 진화했는지 조사했다.
AI를 통한 영유아 상호작용 이해
Scientific Reports에 게재된 연구 결과는 AI가 영유아의 초기 발달과 상호작용을 이해하는 데 귀중한 도구임을 강조한다. 머신러닝과 딥 러닝 방법 모두 5초 분량의 3D 영유아 움직임 클립을 실험의 다른 단계에 속하는 것으로 정확하게 분류했다. 이러한 방법 중에서 딥 러닝 모델인 2D-CapsNet이 가장 좋은 성과를 보였다. 중요한 점은 테스트한 모든 방법에서 발 움직임의 정확도가 가장 높았다는 것이다. 즉, 신체의 다른 부분에 비해 발 움직임 패턴이 실험 단계에서 가장 극적으로 변했다는 것을 의미한다.
"이 발견은 AI 시스템에 실험이나 영유아 신체의 어느 부분이 모바일에 연결되어 있는지에 대한 정보가 전혀 제공되지 않았기 때문에 중요하다. 이것이 보여주는 것은 발이 엔드 이펙터로서 모바일과의 상호작용에 가장 큰 영향을 받는다는 것이다."라고 FAU Charles E. Schmidt College of Science 내 복잡계 및 뇌 과학 센터의 글렌우드와 마사 크리치 저명한 과학 학자이자 공동 저자인 스콧 켈소(Scott Kelso)박사가 말했다. "다시 말해, 영아가 환경과 연결되는 방식이 세상과 접촉하는 지점에서 가장 큰 영향을 미친다. 여기서는 '먼저 발'이었다."
유아 학습에 대한 이동성의 영향
2D-CapsNet 모델은 발 움직임을 분석할 때 86%의 정확도를 달성했으며, 움직임 중에 신체의 다른 부위 간의 자세한 관계를 포착할 수 있었다. 테스트된 모든 방법에서 발 움직임은 일관되게 가장 높은 정확도를 보였다. 손, 무릎 또는 전신의 움직임보다 약 20% 더 높았다.
"우리는 유아가 모바일에서 분리된 후에 모바일을 제어할 수 있는 기회를 갖기 전보다 더 많이 탐색한다는 것을 발견했다. 모바일을 제어할 수 있는 능력을 잃으면 세상과 상호 작용하여 다시 연결할 수 있는 수단을 찾으려는 열망이 더 강해진 것 같다."라고 FAU 복잡계 및 뇌 과학 센터의 공동 저자이자 박사후 연구원인 알리자 슬로안(Aliza Sloan) 박사가 말했다. "그러나 일부 유아는 이 분리 단계에서 모바일과의 이전 상호 작용에 대한 힌트가 포함된 움직임 패턴을 보였다. 이는 특정 유아만이 모바일과의 관계를 충분히 이해하여 그러한 움직임 패턴을 유지할 수 있었으며, 모바일과의 연결이 끊어진 후에도 여전히 반응을 보일 것으로 기대했음을 시사한다."
연구자들은 분리 중에도 영아의 움직임 정확도가 높게 유지된다면 영아가 이전 상호작용에서 무언가를 배웠다는 것을 나타낼 수 있다고 말한다. 그러나 움직임의 유형이 다르면 영아가 발견한 내용에 따라 다른 의미를 가질 수 있다.
FAU 심리학과 교수이자 FAU WAVES 연구실 소장이며 찰스 E. 슈미트 과학대학 내 복잡계 및 뇌 과학 센터 회원인 공동 저자 낸시 에런 존스 박사는 "영아를 연구하는 것은 성인을 연구하는 것보다 더 어렵다는 점을 알아두는 것이 중요하다. 영아는 말로 소통할 수 없기 때문이다."라고 말했다. "성인은 지시를 따르고 자신의 행동을 설명할 수 있지만 영아는 그렇지 못한다. 바로 이 부분에서 AI가 도움이 될 수 있다. AI는 연구자들이 영아의 움직임과 심지어 정지 상태의 미묘한 변화를 분석하여 말하기 전에도 영아가 어떻게 생각하고 배우는지에 대한 통찰력을 제공하는 데 도움을 줄 수 있다. 영아의 움직임은 영아가 발달하면서 발생하는 엄청난 개인 차이를 이해하는 데에도 도움이 될 수 있다."
각 유아에 대한 AI 분류 정확도가 어떻게 변하는지 살펴보면 연구자들은 유아가 언제, 어떻게 세상과 교류하기 시작하는지 이해하는 새로운 방법을 얻을 수 있다.
"과거 AI 방법은 주로 임상적 결과와 관련된 자발적인 움직임을 분류하는 데 초점을 맞추었지만, 이론 기반 실험과 AI를 결합하면 특정 맥락과 관련된 유아 행동에 대한 더 나은 평가를 만드는 데 도움이 될 것이다."라고 켈소는 말했다. "이를 통해 위험을 식별하고, 장애를 진단하고, 치료하는 방법을 개선할 수 있다."