미래기술은 미래학습을 어떻게 바꾸나?

 

 

■ 미래교육의 변화 예측

기존 학교 시스템이 붕괴되기 시작 할 것이다. 우리가 앞으로 예측하게 되는 미래학교의 교육방식에는 많은 변화가 있을 것이다. 그 중 나날이 발전하는 과학기술로 인해 학습자가 필요로 하는 때에 원하는 장소에서 적합한 방식으로 필요한 지식과 기능을 학습할 수 있도록 새로운 교육시설, 관리체제, 교육내용 및 인적자원을 구축하는 학습공동체의 출현이다.

그 특징으로는 △영구성; 학습자가 사회적 활동을 하면서 학교교육을 받을 것이며, 모든 학습 과정이 매일 지속적으로 기록된다. △접근성; 학습자의 요구에 따라 자료가 제공된다. △즉시성; 어디에 있든지 문제 해결에 필요한 정보를 즉각적으로 획득 가능해 진다. △상호작용; 전문가, 교사, 학생, 환경, 사이버공간 등에서 상호작용이 이루어진다. △교수활동의 장소; 일상 삶(생산 현장)속에 학습이 내재화 되고, 과제와 지식이 실제 체험을 통해 통찰을 얻는 것으로 바뀐다.

미래교육의 목표 측면에서 볼 때 평생학습사회에서 자기주도적 학습자를 키우는 교육 중심으로 바뀐다. 즉, △ 교과서에서 실생활 중심으로 △ 문제해결력 및 사회적 상호작용의 중요성 △ 인성교육 및 가치교육의 중요성 대두 △ 지력, 협동력 및 수행역량을  겸비한 전인교육을 목표로 한다.

미래교육의 방법으로는 △ 시간과 공간의 제약이 없는 개방형 교수·학습체제 구현 △ 전문화되고 현실감 넘치는 재미있는 학습 △ 자기주도적인 개인맞춤형 학습 △ 협동·협력학습 및 사회적 활동 강화 △ 실시간 수행평가 및 교사의 협력교수 강화 될 것이다. 이 같은 미래교육은 지능화된 첨단 과학기술을 적용한 교수-학습이 이루어 질 것으로 예측된다. 
 

■ 온·오프라인 경계를 넘는 가상/증강현실(혼합현실) 체험학습

2015년 1월 마이크로소프트는 오큘러스 리프트, 삼성의 기어VR(Gear VR)과 구글 글래스의 대항마로 3차원 ‘홀로렌즈(HoloLens)’ 카드를 꺼낸다. 협업이 가능한 홀로그램(Hologram)을 이용할 수 있는 전용 헤드셋인 홀로렌즈는 독특한 경험 그 자체로 증강현실(AR, Augmented Reality)과 가상현실(VR, Virtual Reality)을 하나로 묶은 시공간을 디자인할 수 있는 ‘혼합현실(MR, Mixed Reality)’의 세계로 안내하고 있다.

홀로렌즈는 나사(NASA)와 MS의 가상현실 홀로렌즈와 손잡고, 화성의 가상 입체 탐험을 예고하고 있다. 미 항공우주국 나사(NASA)와 협력해 구상한 프로젝트 사이드킥(Sidekick)은 홀로렌즈를 낀 우주비행사가 보는 영상을 스카이프로 실시간 중계하고 이를 지상에서 실시간으로 다시 지시를 해주는 ‘리모트 익스퍼트 모드(Remote Expert Mode)’와 우주비행사가 작업 중 홀로그램 영상을 통해 작업 설명서를 표시해주는 프로시저 모드(Procedure Mode)를 작동한다. 

나사는 앞으로 홀로렌즈를 통해 우주비행사와 지상의 오퍼레이터와의 연계를 넘어 화성탐사로봇 등 우주 탐사에 저극 활용할 예정이었다.

▲마이크로소프트가 개발한 홀로렌즈(Hololens)를 활용해 볼보 자동차의 구조를 보며 가상 학습하는 모습. (Image Source: Hololens.Microsoft)

작동 방법 중 하나는 시선이다. 고개를 돌리면 가상현실 물체가 그에 따라 바뀌게 된다. 다음은 제스처로 검지 손가락을 펴고 나머지는 말아 쥔 상태에서 6인치 정도 거리에서 마우스 클릭하는 모션을 한다. 그리고 음성으로 명령하는 것이다. 고글이 오큘러스 리프트 같은 기기처럼 눈을 완전히 가리지 않고 현실과 가상현실을 결합해서 보게 되는데, 마치 가상의 디스플레이로 보는 듯 한 느낌이다. 오큘러스 리프트의 비(非)투시(See-Closed) 형과는 완전히 다르다. 

또한 홀로렌즈는 스카이프, 윈도우 10의 3D 프린터 통합 도구를 활용해 3차원 아바타 인형을 협업으로 수정해 바로 프린터로 출력한다. 케이스웨스턴 대학(Case Western Reserve Univ)의 교수가 나와 해부학을 홀로렌즈를 이용해 수업하는 장면을 시연했다. 그리고 홀로렌즈를 이용한 사물인터넷(IoT)을 협업하는 장면을 시연했는데 바로 로봇과 인간과의 협업 장면이다. 홀로렌즈에 나타난 컬러를 변경하고 사람이 장애물이 있을 경우 거리와 깊이는 측정해 우회하여 가는 동작을 시연했다. 

▲마이크로소프트가 개발한 홀로렌즈(Hololens)를 활용해 나사(NASA)가 화성을 가상 입체 탐험하는 모습. (Image Source: Hololens.Microsoft)

3차원 홀로렌즈의 기회는 ▲ 설계/디자인 데이터, ▲ 건축, ▲ 그리고 협업이다. 따라서 의료/수술, 교육, 고고학, 건설현장, 플랜트, 엔지니어링 등 산업용으로 응용분야가 무궁무진하다. 이를 위해 MS는 이미 케이스웨스턴 대학, 클리블랜드 클리닉, 월트 디즈니, 나사(NASA), 제트추진연구소(JPL), 트림블(Trimble), 오토데스크(AutoDesk) 등 파트너 사들과 일을 하고 있다.

사람들이 새로운 방법으로 게임을 즐기는 방법, 3차원 디자인 객체, 홀로렌즈를 이용한 스카이프 대화나누기 등 실험적인 개척을 꾸준히 진행해왔다. 상호 커뮤니케이션 가능한 학습에서부터 홀로그래픽 데이터를 이용한 새로운 인접 영역으로의 가능성 확대 등 다양한 영역의 연구자들이 참여해 미래에는 디지털과 현실의 정교한 조합으로 교육, 쇼핑, 여행, 사람 및 사물 간 상호작용에서 디지털 증강 경험이 일반화 될 것이다.

홀로렌즈에도 단점은 있다. 너무 무겁다는 점이고, 홀로그램을 볼 수 있는 시야가 제한적이란 점이다. 하지만 현재 애플이 추진하고 있는 혼합현실 글라스처럼 안경 형태나 콘텐즈 렌즈로 바뀌며, 더 멀리는 현재 활발히 연구가 진행 중인 뇌·컴퓨터·인터페이스(BCI)용 놔파를 잡아내고 전달하는 패치로 바뀔 것이다. 즉. 파스 형태의 패치만 붙이면 클라우드와 연결된 학교 컨텐츠로 접속을 해 다양한 멀티 체험을 할 것이다.

혼합현실은 시공간, 즉 현실과 가상공간을 넘나드는 자연스러운 인터페이스를 통해 실제와 같은 환경에서 체험에 의한 학습을 지원한다. 특히 공간을 디자인하는데 있어 학습지간 협력 모델에 있어 매우 뛰어난 기술적 장점을 가지고 있다. 

혼합현실의 기술적 장점은 교육적 활용이, 능동적 학습(active learning), 구성주의적 학습, 의도적 학습(intentional learning), 실제적 학습(authentic learning) 및 협동학습(cooperative learning)을 촉진할 수 있다. 혼합현실 환경에서 학습객체에 대한 실제적 조작활동은 학습자의 학습경험을 배가시키며 몰입을 유발하게 된다.

사례로 온라인 도서관에서 자료를 찾거나 학습교재에 적용해 3차원 체험 학습을 적용되며, 특히 자연, 지리, 지구과학, 물리, 화학 등 모든 분야에 폭 넓게 활용될 것이다. 특히 사회. 역사 콘텐츠, 수학 시뮬레이션은 시공간을 넘나들며, 오감을 자극시키는 학습도구로 자리매김할 것이다. 

특히 첨단 과학기술의 연구 콘텐츠를 보다 쉽게 접근할 수 있다. 예로 들면 생체모방(Biomimetic)융합기술(나비의 유충에 멤스(MEMS)나 넴스(NEMS) 분자기계를 이식하여 나비가 되면 이를 원격으로 조정하여 인명수색 등에 활용) 논리적 접근, 빛을 100% 흡수하는 탄소나노튜브 메타물질 프로세스, CO2 포집물질 마이크로 기공구조 메타물질 확보 프로젝트, 전기장이 아닌 자기장으로 전기를 무선으로 전송하는 그린에너지 융합기술 원리, 우주공학기술, 인공눈, 인공심장, 인공신장 등이 인간의 몸속에서 인간과 같이 사는 컴퓨팅(Liable computing) 생체공학(Bionic) 기술, 오감의 생체신호 감지기술로 인간의 오감으로 작동하는 오감 컴퓨팅, 뇌파감지기술과 두뇌 칩 이식기술에 의해 생각만으로 컴퓨터를 작동시키는 BCI, 생체이미징 융합기술, 의학/의료 바이오융합기술, 나노기술로 빛을 마음대로 구부릴 수 있는 3차원광학파장가이드, 즉 빛에 데이터를 저장하고 빛으로 쏘는 레이저 광 컴퓨터 등 미래 유망 기술을 학습하고 체험할 수 있는 매우 중요한 도구로 자리 잡을 것이다.

혼합현실(클라우드기반)에서는 악수만으로 출석이나 데이터를 전달할 수 있는 인체매질통신 시대가 온다. 바로 인간의 피부는 전도체라는 원리를 융합시키는 것이다. 20나노암페어의 저 전류 전자에 데이터를 저장시켜 피부에 흐르게 하면 귀걸이에서 안경으로 안경에서 손목시계로 데이터를 전송할 수 있다. 이게 바로 피부컴퓨팅/피부네트워킹이다. 정보기술과 바이오기술이 융합되는 사례다. 

▲테슬라 스튜디오(Tesla Studio)가 개발한 스마트 섬유로 만든 입는 형태의 VR 테슬라 슈트 (Tesla Suit). (Image Source: Tesla Studio)


■ 오감 컴퓨팅 학습 도구 출현

혼합현실 속에서 차세대 인지컴퓨팅은 학습하고 적응하고 느끼며, 실제 세상을 경험하기 시작할 것이다. 즉, 컴퓨터가 사람의 감각을 모방해 독특한 방식으로 보고 냄새 맡고 만지고 맛보고 들을 수 있는 인간의 오감 능력에 초점을 맞추고 있다.

IBM 리서치(Research)는 2017년 거시적 수준에서 나노 수준에 이르기까지, 미시세계에서 보이지 않는 것을 볼 수 있게 만드는 새로운 과학 기기(물리적 장치 or 첨단 소프트웨어 툴)를 전망했다.  △인공지능(AI)은 사람의 말을 분석해 그 사람의 정신 건강 상태를 보여줌 △ 하이퍼이미징(Hyperimaging)과 인공지능은 슈퍼맨과 같은 시각적 능력을 제공 △ 매크로스코프(Macroscope)는 지구의 복잡성을 매우 상세하게 이해할 수 있도록 도움 △ 메디컬 랩 온어칩(Medical labs ‘on a chip’)은 나노 단위로 질병을 추적하는 건강 조사관의 역할을 담당. △ 스마트 센서들은 빛의 속도로 환경오염 감지 등이다. 

IBM 리서치가 발표한 ‘오감 컴퓨팅 시대’는 만지고 느낄 수 있는 촉각, 보이는 모든 사물들을 분석할 수 있는 시각, 인간이 듣지 못하는 소리를 들을 수 있는 청각, 인간보다 뛰어난 디지털 미각세포, 인간보다 냄새를 수 십 배나 뛰어난 디지털 후각 등이다. 특히

인간의 5감 중에서 촉각은 가장 복잡한 감각이다. 촉각은 다른 감각들과는 달리 통합된 감각기를 가지고 있지 않지만, 촉감은 온 몸에 존재해 그 감각으로 얻는 정보는 인간의 인지와 행동에 깊이 연계되어 있어 오감학습에 가장 중요한 이유다. 이를 바탕으로 아스펙미래기술경영연구소에서 도출한 오감컴퓨팅의 구체적인 사례를 통해 학습에서 오감을 자극할 수 있는 방법을 알아보자.  

▲액손(Axon)VR이 개발한 웨어러블 VR 장비 액손 슈트(Axon suit). (Image Source: AxonVR)

1. 촉각 (Touch) : 만질 수 있다.

2017년 1월 ‘국제가전전시회(CES) 2017’에서 미국 스타트업 탠바스(Tanvas)는 ‘탠바스 터치’를 선보였다. 터치스크린에서 사물의 질감을 손가락으로 느낄 수 있게 해준다. 이 기술은 노스트 웨스턴 대학(Northwestern University)의 신경 과학 및 로봇 공학 연구소의 TanvasTouch 기술이다. 향후 이 기술이 상용화 된다면 시각 장애인의 물건 구매는 물론 자동차, 게임, 광고, 예술 등 다양한 영역에서 활용 될 것이다

또 울버린 촉감 장치는 VR에서 물체를 잡을 수 있다. 스탠퍼드 대학(Stanford University)의 Shape Lab 연구원 팀이 개발 한이 장치는 영화의 울버린의 발톱과 다소 흡사 한 웨어러블 기기는 엄지 손가락과 세 손가락 사이에 직접 힘을 가함으로써 사용자가 가상 ​​현실에서 파악할 수 있는 다양한 물체를 시뮬레이션 한다.

6

▲Stanford University Shape Lab 연구팀이 개발 한 웨어러블 햅틱 Interface Wolverine. (Image Source: tanvas.co)

미국의 스타트업 액손(Axon)VR은 2016년 5월 전신 VR 장비 ‘액손 슈트(Axon suit)’를 공개했다. 이 슈트는  만든 가상현실 수트를 입고 약간 공중에 뜨는 시스템에서 가상현실 속 물체의 실물과 같은 촉감을 시뮬레이트하는 스마트 햅틱 섬유로 가상 물체의 질감, ​​모양, 움직임, 진동 및 온도를 느낄 수 있기 때문에 재난사고에 대처하는 방법이나 극한 스포츠를 가상에서 즐길 수 있는 간접 체험의 기회를 제공할 수 있습니다.

스코틀랜드의 스타트업 테슬라 스튜디오(Tesla Studio)가 개발한 VR(가상현실) 테슬라 슈트 (Tesla Suit)는 스마트 섬유로 만든 입는 형태의 VR 기기로 거의 모든 햅틱 피드백을 제공한다. 이 슈트는 몸의 신경 52개를 자극해 바람, 통증, 뜨거움, 물 등의 느낌을 줄 수 있다. 심지어 비나 바람의 방향과 압력까지 그대로 전달해주는데 현재 가상 일인칭슈팅(FPS) 게임에 시연 중으로 게임에서 총에 맞으면 그 느낌 그대로 온몸에 전달된다. 슈트를 무선으로 작동하도록 설계되어 있다. 

▲터치스크린에서 사물의 질감을 손가락으로 느낄 수 있는 Tanvas Touch. (Image Source: tanvas.co)

일본기업 후지쯔도 2014년에 미끄러움과 거친 촉감까지 표현할 수 있는 햅틱 기술을 선보였다. 영화 매트릭스가 다가오고 있다.

또한 미국 피츠버그 소재 디즈니리서치(Disney Research)는 최신 알고리듬을 적용해 터치스크린 기기에 3D 터치 감을 제공하는 기술을 개발했다. 텔레비전에서 개구리가 나왔을 때 만지면 미끈거림을 느낄 수 있고, 가상 공간의 쇼핑몰에서 옷의 질감을 만져서 느낄 수 있다. 즉 우리가 알고 있는 모든 사물을 디스플레이나 가상공간에서 만지고 느낄 수 있다는 얘기다. 이는 사용자의 몸에 전기 신호를 내보내어 손가락 표면에 아주 뚜렷한 촉감을 느낀다. 

또 디즈니리서치가 개발한 에어리얼(AIREAL)은 카메라가 사람의 움직임을 읽고 상황에 따라  바람을 쏘는데 촉각 인터페이스(Tactual Interface)로 활용할 수 있다. 현재의 동작인식에 이 기술을 적용하면 바람과 같은 물리적인 느낌을 받을 수 있다.  

애플도 2012년 촉각 기술 관련 특허를 출원했다. 가상 키보드에 적용해 실제 키를 누르는 듯한 촉감을 느낄 수 있다. 세계적인 감각 인터페이스(Haptic Interface) 햅틱(Haptic) 기술 연구 개발사인 핀란드 센세그(Senseg)는 촉각을 이용해 고비 사막 이미지를 만질 때 실제 모래를 느끼고, 태블릿이나 스마트 디바이스에서 전자책을 읽을 때는 페이지 구석을 잡는 느낌까지 제공한다. 

눈에 띄게 발전하고 있는 촉각 인터페이스를 주목하는 이유 중 하나로 오감을 자극해 몰입감이나 현실감을 높이는 방식 중 가장 직관적인 형태다. 학습자를 촉감 시뮬레이션 환경으로 데리고 간다. 사람이나 심지어 백악기시대 공룡의 심장을 직접 만지고 느낄 수 있다.

2. 시각 (Sight) : 인간이 볼 수 없는 것을 본다.

인간의 눈은 가시광선(Visible Light)만 감지하지만, 향후 컴퓨터는 라디오(Radio), 극초단파(Microwave), 적외선(IR), 극자외선(UV), X-선, 알파선, 감마선, 베타선까지 감지해, 인간이 감지할 수 없는 시각정보(이미지), 예술(artwork) 정보, X-선 이미지, MRI 이미지를 분석해 인간에게 제공할 것이다. 

애플은 2012년 3D 카메라 특허를 등록했다. 얼굴인식(facial recognition) 뿐만이 아니라 얼굴 표정이나 제스처까지 인식(facial gesturing recognition)한다. 리얼 3D 카메라는 인간의 눈에 해당한다. 오른쪽 눈이 대략 1억5천만 화소, 왼쪽 눈이 대략 1억5천만 화소 즉 인간의 두 눈은 총 3억 화소의 눈을 갖고 있고, 두 눈 사이의 거리(5~6Cm)가 있어 시각차에 따라 사물의 거리(Distance)와 깊이(Depth)를 인지한다. 따라서 3D Camera는 인간의 두 눈을 모방한 것으로 혼합현실 기기가 5,000만화소의 듀얼 카메라(Dual Camera)가 달린 3D 카메라가 나와 인공지능 눈에 보이는 모든 사물을 분석해 학습자에게 스마트 패턴을 제시할 것으로 예측된다.

▲애플 아이사이트(iSight). (Image Source: Apple)

또한 애플은 아이사이트(iSight)라는 카메라에 가시광선 렌즈, 적외선 렌즈, X-선 렌즈를 융합해, X-선으로 인간의 뼈 구조를 감지할 수 있고, 적외선으로 인간의 열 분포를 감지할 수 있게 하여, 이를 아이포토(iPhoto)앱으로 연결해 인간을 지원하고 있다. 특히 구글, 애플, 소니, MS 등은 글라스(Glass)를 개발하는데 집중하고 있으며, 이는 사람의 시각을 증강시키는 것이다. 

3. 청각 (Hearing) : 세상의 모든 소리를 들을 수 있다.

인간의 귀는 16Hz~20kHz의 소리만 감지한다. 하지만 향후 컴퓨터는 20,000Hz 이상의 초음파를 모두 감지해, 인간이 감지할 수 없는 소리나 진동까지 감지할 것이다. 컴퓨터가 자연의 소리를 패턴별로 분류하고 예측해 학습자 분석에 기초한 소리를 인지하고 솔루션을 제시할 것이다. 

▲이스라엘 텔아비브 대학교(TAU) 연구진들이 이집트 과일박쥐들의 대화를 머신러닝으로 분석. (Image Source: England Cotswold Wildlife Park)

<둘리틀 박사의 바다 모험>에 나오는 여러 동물들과 대화 할 줄 아는 괴짜 시골 의사 둘리틀 박사처럼, 2017년 1월 이스라엘 텔아비브 대학교(Tel Aviv University in Israel)의 요시 요벨(Yossi Yovel) 박사팀이 이집트 과일박쥐(Rousettus aegyptiacus)들이 내는 소리들을 분석해 '누구와 누가 말다툼을 하는지', '도대체 무슨 일로 옥신각신하는지'를 알아내고, 심지어 '말다툼의 결말이 어떻게 날 것인지'까지도 예측하는 방법을 ‘머신러닝 알고리즘’으로 개발했다. 동물의 의사소통을 이해하는 새 세상이 열리게 되는 것이다. 

4. 미각 (Taste) : 디지털 미각 세포가 맛을 느낀다

디지털 미각세포를 통해 혼합현실에서 실제와 같은 맛을 체함 할 수 있다. IBM은 요리사들이 최고의 맛과 참신한 레시피를 창안하는 데 사용할 수 있는 실제로 맛를 느끼는 컴퓨터 시스템을 개발하고 있다. 이 시스템은 음식재료들을 분자 수준으로 쪼갠 다음 음식 구성요소의 화학적 구성을 사람이 선호하는 맛과 냄새를 심리학적 요소와 결합한 시스템으로 새로운 맛까지도 창조할 수 있게 될 것이다. 

▲버튼을 누르면 포크는 혀의 소금 수용기를 자극하는 전기 신호를 전송. (Image Source: Rekimoto Lab)

2016년 3월 일본 레키모토랩(Rekimoto Lab)의 히로미 나카무라(Hiromi Nakamura)가 오랜 연구 끝에 소금을 넣지 않아도 짠맛을 낼 수 있는 ‘전기 포크(Electric Fork)’를 개발했는데, 혀에서 맛을 느끼는 미뢰를 전기작용으로 짠맛, 단맛, 신맛, 쓴맛, 음식의 질감 등을 느끼게 하는 제품을 개발했다. 2013년 싱가포르 국립대학(NUS, National University of Singapore) 연구원들이 단맛, 짠맛, 신맛을 흉내 낼 수 있는 디지털 미각 자극제인 ‘디지털 사탕(Digital candy)’을 개발했다. 

5. 후각 (Smell) : 컴퓨터가 냄새를 맡는다

인간의 후각은 10,000개의 냄새분자를 감지하지만, 컴퓨터는 100,000개의 냄새를 맡을 수 있다. 2001년 미국의 IT 기업 노마딕스는 화약물질의 냄새를 파악해 지뢰를 탐지할 수 있는 전자코(Electric Nose)를 개발했고 미국항공우주국(NASA)은 우주정거장에서 장기간 거주하는 승무원들의 건강을 관리하기 위해 우주선 실내 공기 중 인체에 유해한 화학물질을 감지할 수 있는 전자코를 사용하고 있다. 2006년 영국의 맨체스터대 연구진은 쓰레기 매립장과 폐수 처리 시설에서 발생하는 유독가스를 원격으로 관찰하고 이상 여부를 알려줄 수 있는 전자코를 개발했다. 

▲스마트폰으로 전달된 제품의 향기를 향기 키트로 조합해 냄새를 맡는 oPhone. (Image Source: indiegogo)

최근에는 사람의 호흡에서 배출되는 냄새를 통해 각종 질병 여부도 알 수 있다는 연구 결과가 발표됐다. 또 2014년 베이퍼 커뮤니케이션스는 오미디어(oMedia) 플랫폼을 공개했다. 회사 측은 ‘향기의 아이튠’이라는 플랫폼을 이용해 프랑스 파리에서 전화기로 샴페인과 쿠키의 향을 뉴욕에 있는 오폰으로 전송했다. 

미국의 트라이셍스(Trisenx) 및 영국 인터넷 제공자인 텔리웨스트 브로드밴드는 2004년에, 이메일에 다양한 향기를 코드화해 상대방에게 보내면 컴퓨터에 플러그인 되어 있는 향기 돔(Scent Dome)에서 그 향기가 혼합되어 공기 중에 뿌려지는 기술을 개발했다. 위 그림의 붉은 돔은 60개의 냄새를 생성할 수 있는 향기 돔으로 오른쪽의 컴퓨터에 플러그인 되어 있다. 이메일이 오면 이메일의 냄새 코드와 돔이 매칭되어 돔에서 냄새를 뿜어 낸다

시각 및 청각뿐 아니라 후각적 감각을 인터넷으로 보낼 수 있어, 3차원 감각으로 고객들의 감성을 유발하고, 향후 사랑과 예술이라는 고객가치 창출에 도전하는 것이다. 미래의 가상현실이 교육에 적용되는 다양한 도구는 이미 현재도 많은 발전을 이루어 왔다. 그러나, 앞으로 이러한 도구들이 교육플랫폼과 결합이 이루어지면서 보다 강력한 협업도구 역할을 하게 된다.

■ 학습과정에 대한 인공지능 도우미 등장

인공지능이 일반화 되면서 혼합현실에서 오감으로 체험한 학습과정 및 지식정도를 개인 맞춤형으로 적극 개입을 한다. 또한, 인공지능 학습 도우미는 학습과정을 담당하는 교수에게 학습자의 교육에 대한 참여도 및 학습상황 등을 알려주어서 튜터 (Tutor) 가 학습자에게 어떤 시점에 어떤 내용으로 지원을 해줄지를 판단하게 한다.

이와 함께 튜터와 학습자에게 관련 분야의 전문가 네트워크 소개 등을 통해 학습자의 학습이 전문가 네트워크 연결을 통해 학습 증진이 가능한지를 튜터의 판단을 통해 학습자에게 지원할 수 있도록 도와준다. 결국 교육 데이터베이스가 매우 중요하게 된다. 따라서, 관련 데이터베이스 제공회사와 인공지능 회사들은 수년간 축적된 전문가들의 개인별 정보를 교육과 연계할 수 있도록 제공한다.

■ 토론 학습방식을 위한 혼합현실 

혼합현실 학습형태의 토론이 일반화 된다. 이런 토론에는 실제 토론장 토론과 컨퍼런스 로봇이 역할을 담당하고, 원격지 학습자는 이 로봇을 통해 토론에 참석한다. 원격지 학습자는 3차원 혼합현실을 통해 토론에 참석한다. 현재도 학습자가 스마트 기기를 통해 가상 토론이 제공되지만, 앞으로는 보다 다양한 디지털 기기가 활용될 것이다. 이중 혼합현실 기기는 일상화될 것이다.

■ 혼합현실 기술과 BCI/BMI와 연결된 교육의 미래

다양한 학습효과를 측정할 때, 인공지능은 BCI(Brain Computer Interface)/BMI(Brain Machine Interface)를 통해 보다 적극적으로 학습효과를 분석한다. BCI/BMI 기술은 인간의 두뇌와 컴퓨터를 직접 연결해 뇌파를 통해 컴퓨터를 제어하는 인터페이스 기술이다.  

▲독일 뮌헨공대(TUM) 비행시스템역학연구소 연구원들이 뇌파를 측정하는 캡을 쓰고 두뇌비행 시뮬레이션을 하고 있는 모습. (Image Source: TUM)

현재 BCI 기술은 여러 측면에서 제한적이고, BCI 기기를 단순하게 작동시키는 수준이지만, 향후 BCI 기술이 첨단화될 것으로 예상된다. 지금까지 뇌파를 이용한 이 기술은 장애를 겪는 사람들을 대상으로 했지만, 앞으로는 일반인에게 까지 대상범위가 확대될 것으로 보인다. BCI 기술은 학생들이 학습내용을 제대로 이해했는지 파악하고 심지어 감각과 행동분석까지 학습에 적용된 것이다.

■ 개인 학습정보의 축적과 정보보호

많은 정보 축적 으로 자기 주도적 학습을 위한 인공지능이 가이드가 맞춤형으로 큐레이터 역할을 한다. 지속적인 학습정보 업데이트를 수집하고 그 결과를 학습에 반영할지 여부는 인간이 최종 결정한다.  

문제는 인공지능 학습지원을 위한 개인별 교육 데이터(지식, Knowledge)를 어떻게 관리하느냐가 관건이다. 미래 사회에서는 지식을 잃어버리면 모든 것을 잃어버린 것과 같다. 애플의 클라우드(Cloud)/빅데이터(Big Data) 전략 중 하나인 ‘안전저장지식박스(Safe Deposit Box)’를 통해 알아보자. 2011년에 ‘파일관리 안전저장지식박스(File Management Safe Deposit Box)’라는 특허를 등록했는데 그 핵심은 ‘클라우드 베이스의 안전저장지식박스매니저(A Cloud Based Safe Deposit Box Manager)이다. 이는 은행의 물리적인 안전저장박스와 같이 가치 있는 디지털 지식을 안전하게 저장 보호하는 것이다. 

▲Image Credit : Apples Patent(20110040980, 17 Feb 2011) by patentlyapple.com via USPTO

또한 아이클라우드(iCloud)의 안전저장지식박스에 저장했다고 해서 분실될 가능성이 없는 것이 아니어서, 이 프로그램은 자동적으로 동시에 오리지널 파일의 2-3개 파일을 복사해 사용자의 컴퓨터나 아이클라우드 원격 스토리지에 저장하도록 하는 것이다. 클라우드베이스의 안전저장지식박스 서비스는 보안이 무엇보다 중요하다. 애플은 이를 위해 4단계의 안전엔진기술을 적용할 예정인데, (1) 암호 엔진(Encryption Engine), (2) 카피 엔진(Copy Engine), (3) 재확인 엔진(Verification Engine), 그리고 (4) 허용 엔진(Permission Engine)이 그 것 들이다.

■ 결론

하지만 이러한 미래기술을 활용한 학습을 위해 대한민국이 준비해야 할 것들은 너무나 많다. 먼저 관련 기초과학 기술 개발을 위해 성과 중심의 단기 계획이 아닌 중장기 로드맵을 잡아야 한다. 또한 기초기술이든 응용기술이든 간에 각각 기술을 활용할 SW/HW인 빅데이터, 인공지능, 클라우드, IoT, 보안 등 관련 기술핵심 인재와 역량을 필수적으로 길러 준비해야 한다.

그 이유로는 먼저 응용기술에서 인공지능이 중요하지만 국내에는 30년 전부터 인공지능 연구를 해왔다고 말만하는 전문가들뿐이다. 즉 실증할 만한 결과가 없어 그 어디에서도 전문가다운 전문가가 없다는 문제다. 물론 정부 국책 연구기관이나 국내 IT기업들이 앞 다투어 내놓고 있는 일부 인공지능 기술은 세계 시장에서 전혀 먹혀들만한 수준이 아니다. 또한 현재 인공지능을 개발하기 위해서는 데이터가 중요한데 우리만의 DBMS 구축도 전혀 이루어지지 않고 있다. 

사물인터넷 역시 핵심 기술에서 센싱이 매우 중요하지만 센서 시장의 원천기술 거의 대부분은 일본이 독보적으로 장악하고 있다. 특히 사물에 청각, 미각, 후각, 촉각, 시각 등을 부여해 주변 환경의 변화를 측정할 수 있도록 한다. 이른 분석하고 개인별로 유효한 스마트 데이터로 전환 시켜줄 데이터 과학자들도 부족하다. 즉 빅데이터 전문가가 없다는 것이 문제다.

가상현실과 증강현실을 포함한 혼합현실 역시 마찬가지로 HW/SW 능력이 거의 전무한 상태다. 미래학습에서 중요한 컨텐츠 제작 능력이 글로벌 기업에 비해 현저히 떨어진다. 이 모든 사항의 공통분모는 소프트웨어 능력인데 그들에 비해 개발능력이 어디에 견줄 수 없을 정도로 낮다.

구글, 페이스북, 애플, 마이크로소프트 등의 신경망 인공지능 기술은 텍스트와 이미지, 동영상 분석은 물론이고 전세계 언어 통번역 수준은 놀랍게 발전하고 있다. 특히 인공지능 의사 왓슨으로 유명한 IBM은 ‘체화된 인지심리’를 기반한 인공지능 알고리즘을 개발하고 있을 정도다. 미국은 이미 이러한 기술 기반으로 초등교육에서부터 대학 교육 학습에 적용하고 있다. 미국은 조지아 주립대학이나 코넬대학 처럼 교육 현장을 중심으로 수강 신청, 학교 안내 등에 챗봇을 사용하는 대학들이 점점 늘고 있다. 조만간 학습자 분석을 통해 개인 맞춤형 학습을 지원할 것이다. 인공지능 기술의 결합 결정체인 챗봇은 문자(Text) 형식의 인간의 언어와 감성을 컴퓨터가 이해하고 학습, 추론하는 맥락 분석 기술인 자연어처리(Natural Language Processing), 텍스트 마이닝(Text Mining), 패턴인식, 상황인지(Context-Awareness) 등의 기술이다.    

교육계에서 잘 아는 미네르바 대학의 학습모형이 뛰어나다는 것은 이미 정평이 나있다. 그 근본에는  ‘액티브 러닝 포럼(Active Learning Forum)’이라 불리는 온라인 화상 교육 영상 분석 시스템이 핵심 역량이다. 비디오 채팅 중 시선이나 표정 증을 분석해 곧바로 화면에 이를 띄워 교수뿐만 아니라 챗팅에 참여하고 있는 학생들에게도 표시된다. 또 음성인식 시스템은 학생 한 사람, 한 사람의 발언 빈도를 다른 색으로 표시해준다. 이를 기반으로 교수는 해당 학생을 대상으로 맞춤형 토론을 진행하는 것이다.

이 표정 분석 시스템은 애플에서 독보적인 기술을 확보하고 있다. 애플이 인수한 얼굴표정 인식 기술개발 업체 ‘이모션트(Emotient)’는 사용자들이 참여할 수 있는 '크라우드소싱(crowdsourcing)'을 활용해 감정을 최대 10만 가지 표정을 수집하고 분석하는 기술을 개발해 특허까지 보유하고 있다. 이 기술은 범죄심리학 분야의 세계적인 석학인 폴 에크만(Paul Ekman) 전 캘리포니아 의과대 교수가 1970년대에 발표한 5000여개의 안면 근육 움직임 등 표정, 몸짓, 목소리 같은 미세한 행동 패턴을 통해 거짓말을 알아내고, 상대방이 어떤 감정 상태인지를 잡아내는 자료를 근거로 감정을 추론하는 알고리듬을 개발했다. 심지어 이 기술은 어두운 조명, 저사양의 웹캠, 안경이나 수염 등으로 가려진 얼굴 등 열악한 환경에서도 표정을 잡아낼 수 있을 뿐만 아니라, 1080p 해상도의 영상 안에서 최대 100명까지 얼굴을 정확히 인식할 수 있다. 기술이 사람의 감정을 읽고 있는 것이다.

현재 상황으로만 보면 대한민국의 미래교육도 산업과 마찬가지로 흉내만 내고 말 것이 분명하다. 그렇다면 미래교육의 100년을 세울 수 있는 방안은 무엇일까? 

문제해결 방안으로는 대한민국 사회의 시스템 혁명이 일어나야 한다. 정부나 기업 등 조직의 수직적 구조가 타파되어야 하고 이를 기반한 창의적이고 유연한 사회가 이루어 져야 한다. 우선 당장 시급한 문제를 해결하기 위해서는 미래교육 시스템을 개발하는 교육 관련부처 또는 해당 연구소가 국가 과학기술 정책에 적극적으로 참여하고 협력해 장기적인 로드맵을 잡아야 한다. 그것도 아니라면 우리에게 적용할 수 있는 해외 우수 기술이나 교육 컨텐츠를 잘 살펴보고 도입해야 하는데 이것도 그들의 플랫폼에 갇힐 수밖에 없다. 결론은 그럼에도 교육 전문가들과 과학기술 전문가들이 힘을 모아 하나하나 문제를 풀어 나가는 수밖에 없다. (이 글은 국제미래학회·한국교육학술정보원가 2017년 4월 13일에 펴낸 <대한민국 미래교육 보고서>의 저자 및 책임 집필위원으로 참여해 쓴 내용이다.)


※ 참고문헌

김들풀
IT NEWS 공동대표이자 편집장으로 IT 현장에서 취재하고 글을 쓰고 있으며, MBC, KBS, YTN 등에 출연해 IT 애널리스트로 방송 활동을 펴고 대학과 기업에서 강의를 하고 있다. 아스펙미래기술경연구소 수석연구원, 전북대학교 외래교수, 스마트교육연구소, 한국능력개발원 수석연구원, 한글학회 정회원(NLP, 자연어 처리 연구)으로도 활동하고 있다. 특히
국내 대표 미래학자 차원용 박사가 이끌고 있는 아스펙미래기술경연구소에서 정보기술, 나노기술, 바이오기술, 에너지기술, 자원기술, 식량기술과 기술의 융복합을 통한 미래전략을 연구하고 있다.

 

[임정호 기자  art@itnews.or.kr]