노중일 비상교육 글로벌컴퍼니 대표 / 사진=비상교육

교육부는 학교운영위원회가 심의 과정에서 참고할 수 있도록 '학습지원 소프트웨어 선정 기준 및 가이드라인'을 마련해 지난달 배포했다. 교육업계에는 그야말로 청천벽력 같은 소식이었다. 해당 가이드라인을 충족하면 학교 도입을 위한 최소한의 자격 요건을 갖춘 것으로 간주하지만, 필수 준수 항목으로 포함된 개인정보보호 기준이 지나치게 모호하다는 지적이 잇따른다.

이로 인해 교육산업 발전이 저해되고, 이미 외산 제품에 유리한 '기울어진 운동장'이 더욱 심화될 수 있다는 우려도 쏟아진다. 머니투데이방송 MTN은 AI·디지털 교육 분야에서 꾸준히 목소리를 내온 노중일 비상교육 글로벌컴퍼니 대표를 만나 관련 이야기를 들어봤다.

 
-교육부가 발표한 '학습지원 소프트웨어 선정 기준'을 두고 논란이 일고 있다.
 
▶AI를 학습시키기 위해서는 교육 콘텐츠와 데이터가 반드시 필요하다. 그런 것들은 예외 조항을 넣고 규제 범위 밖에 둬야 한다. 하지만 학습지원 소프트웨어 선정 기준은 개인정보보호법을 통으로 적용해 버렸다. AI 교육이란 이유만으로 교육 기술을 위험 요소로 간주하는 구조라, 정작 교육적으로 가장 유용한 도구들이 오히려 가장 불리해졌다.
 
지금 가이드라인은 '구더기 무서워 장 못 담근다'는 속담 그대로다. 개인정보 보호라는 작은 위험을 과도하게 두려워하다가 AI 기반 맞춤형 학습이라는 더 큰 교육적 가치를 포기하고 있다. 중요한 것은 기술을 막는 게 아니라 데이터를 교육 목적에 맞게 안전하게 쓰도록 관리하는 것이다. 데이터가 '교육 목적'으로 쓰이느냐가 핵심인데, 가이드라인은 그걸 담아 내지 못하고 있다. 이재명 대통령은 AI 초강대국으로 가겠다고 선언했는데, 교육부는 정작 굉장히 중요한 교육 AI에선 정부의 기조와 정확하게 반대로 가고 있다.
 
-업계에선 '최소한의 정보수집'이라는 표현을 문제 삼고 있다.
 
▶운영 원칙과 거버넌스 정도만을 규정해야 할 교육부가 그런 디테일까지 건들인 것이 문제다. 최소한의 단위가 뭐냐, 어디까지 쓸 수 있냐, 목소리(음성인식)는 되냐, 아이트레킹(시선추적) 데이터는 되냐 (교육부에) 물어도 하나도 대답하지 못하고 있다.
 
그런데 교육용 AI에서 '최소한의 정보'라는 개념은 성립하지 않는다. AI는 데이터로 학습하는 시스템이기 때문이다. 예를 들어 최근 보스턴 다이내믹스의 피지컬 AI는 사람처럼 걷고, 점프하고, 물건을 집고, 균형을 잡는다. 이 AI가 학습할 때 수집하는 데이터는 관절 각도와 토크, 발바닥 압력, 관성 센서(IMU), 카메라 영상, 충돌과 미끄러짐, 실패한 동작의 기록 등이다. 이 중 어느 하나라도 빠지면 로봇은 넘어지고 부딪히며 학습하지 못한다.
 
교육용 AI도 마찬가지다. 학생의 발화, 오류, 반응 시간, 반복 횟수, 망설임 같은 로그는 AI 로봇으로 따지면 관절과 센서에 해당하는 학습용 감각 데이터다. 그런데 "최소한만 수집하라"고 하면 이는 로봇에게 눈과 균형 감각 없이 걷고 뛰라, 고 요구하는 것과 같다. 그러면 AI는 똑똑해질 수 없고, 한국의 교육 AI는 글로벌 경쟁에서 뒤질 수밖에 없다.
 
-교육 기업들은 자사가 가이드라인 적용 대상인지조차 헷갈리는 모습이다.
 
▶가이드라인이 '플랫폼에서 일어나는 교육 행위'가 아니라 '붙어 있는 기술 조각'을 규제하기 때문이다. 지금의 교육 시스템은 하나의 플랫폼 위에 여러 기술이 결합되는 구조다. 학습관리시스템(LMS)이 있고, 영상 수업이 있고, AI 튜터가 있다. 학습 로그가 모이고 그 위에서 개인화 알고리즘이 작동한다. 이는 여러 소프트웨어가 아니라 하나의 데이터 기반 학습 플랫폼이다.
 
하지만 지금 가이드라인은 화상수업은 괜찮고, LMS는 애매하며, AI 튜터는 위험하고, 로그 분석은 규제하는 식이다. 이는 자동차는 허용하지만 엔진과 브레이크는 위험하니 따로 허가받으라는 말과 같다. 학습 효과는 개별 기술이 아니라 플랫폼 통합 구조에서 발생한다. 일부 기술만 규제하면 플랫폼 전체가 작동하지 않게 되고, 현장에서는 무엇이 규제 대상인지 아무도 판단할 수 없게 된다. 지금의 혼란은 학교나 기업의 문제가 아니라 플랫폼 시대를 고려하지 않은, 규제 설계의 실패다.
 
-학생의 개인정보는 보호되어야 한다. 최근 일련의 해킹 사태를 거치면서 그 중요성이 더 커진 것이 사실이다. 개인정보보호법 말고 다른 접근법이 있다고 보는가.

▶세계는 이미 개인정보 보호에서 교육 데이터 보호, AI 알고리즘 거버넌스로 단계가 올라가고 있다. 그러나 한국은 여전히 모든 학습 데이터를 개인정보법 하나로 다룬다. 이는 유엔의 지속가능발전(SDG) 관점에서도 맞지 않는다. 필요한 것은 단순한 법 집행이 아니라 거버넌스 체계다. 기술과 학교, 정부가 함께 규칙을 만들지 않으면 법은 언제나 기술보다 늦어진다. 교육 데이터는 감시 대상이 아니라 학습 성과를 높이고 기회를 공정하게 만드는 공공 자원으로 봐야 한다.
 
-미국·영국에선 어떤 식으로 규제하나?
 
▶미국과 영국은 교육 목적의 데이터 사용을 명확히 허용한다. 반면 유럽은 일반데이터보호규칙(GDPR)을 통해 개인정보 보호와 함께 플랫폼 주권을 지킨다. 문제는 한국이다. 혁신은 미국처럼 하겠다면서 규제는 유럽식으로 적용한다. 이는 엑셀과 브레이크를 동시에 밟는 정책이다. 그 결과는 정체다. AI 강국을 원한다면 데이터 활용 전략도 함께 가야 한다.
 
-교육부의 에듀테크 산업 육성책 평가는.
 
▶교육부의 에듀테크 정책은 육성이라기보다 반복적인 생태계 붕괴에 가깝다. 디지털교과서와 AIDT 사업을 거치며 민간 기업은 플랫폼과 데이터 접근권을 잃었다. 더 큰 문제는 정책의 책임성과 전문성이다. AI 산업은 연속성과 장기 전략이 핵심인데, 몇 달 만에 담당자가 바뀌는 구조로는 감당할 수 없다. 모르면 규제하지 말아야 한다. 이해하지 못한 규제는 산업을 조용히 질식시킨다.
 
-가이드라인이 외산에 '기울어진 운동장'을 더 부추길 수 있다는 우려도 크다.
 
▶국내 데이터 사용을 규제하면 앞으로는 다 해외 API에 의존할 수밖에 없다. 외국 기업이 자사 기준으로 학습시킨 모델을 쓸 수 밖에 없다. 그 안에는 우리 아이들의 데이터도 이미 다 포함돼 있을 것이다. 우리 아이들 데이터를 모아 만든 분석 리포트를 돈 주고 사 오는 상황이 벌어질 수 있다.
 
-정부에 바라는 점은?
 
▶교육 데이터를 통제하지 말고, 교육 목적의 데이터 활용을 보호해 달라는 것이다. AI 교육은 규제로 만들어지지 않는다. 필요한 것은 규제가 아니라 민·관·학 거버넌스다. 실증 규제 완화, 교육 AI 전용 데이터 규범, 국산 플랫폼 연계, 상시 협의체. 이 네 가지만 갖춰도 한국은 신뢰와 협력으로 AI 교육을 키울 수 있다. 에듀테크는 규제의 대상이 아니라 함께 키워야 할 국가 학습 인프라다.
 

출처
윤석진 머니투데이방송 MTN 기자