[AI칩] 1. Edge AI <-> Cloud AI 쌍방향 시대

신경망을 모방하는 인공지능칩(AI Chip)·신경모방칩(Neuromorphic Chip) 기술개발 동향

[요약] 인간의 뉴런(Neuron)과 시냅스(Synapse)의 신경망(Neural Networks)을 모방하는 인공지능칩(AI Chip) 혹은 신경모방칩(Neuromorphic Chip)을 개발하는 퀄컴, 인텔, IBM, 삼성전자, 알리바바 등의 특허분석을 소개하기에 앞서, (1) AI칩·신경모방칩을 개발하는 배경과 (2) 두뇌 신경망의 특징들인 가소성(Plasticity)·SNNs/JNNs·STDP와 LTP/LTD, 시냅스의 역할, 그리고 비-신경세포인 신경교의 역할 등 생물학적이고 화학적인 구조와 기능과 역할을 알 필요가 있다. 왜냐면 이러한 지식이 없으면 특허를 분석할 수도 없고 다음에 소개할 기업들의 특허분석 보고서를 이해할 수 없기 때문이다.

추아(Chua, 1971)가 제안하고 HP의 연구원들이 2008년에 발견한 멤리스터(memristor)가 실제 존재냐 아니냐의 논쟁도 다소 있지만, 향후 특허분석 보고서를 통해 소개하는 내용 중에 멤리스터를 이용한 AI칩·신경모방칩을 연구하는 기업들이 있어 다소 긍정적인 관점에서 소개하려고 한다. 왜냐면 AI칩·신경모방칩은 이제 시작이라는 점이다. 누가 어떤 물질(소자)을 갖고 뉴런과 시냅스와 같은 유기칩(Organic Chip)을 개발하는가가 중요한 것이다. 멤리스터는 메모리(memory)와 저항기(resistor)의 합성어로 이전의 상태를 모두 기억하는 메모리 소자이다. 

본 글에서는 획기적인 에너지 절감의 AI칩·신경모방칩에 도전하는 두 가지의 사례들을 소개하는데, 프랑스/미국의 스스로 학습할 수 있는 인공 고체 시냅스인 멤리스터 개발과 미국 스탠포드대의 뉴로모픽 컴퓨팅을 위한 인공 유기 시냅스 개발이다. 이 두 가지 사례들은 앞으로 소개할 퀄컴, 인텔, IBM, 삼성전자, 알리바바 등의 특허분석을 이해하고 왜 AI칩·신경모방칩에 도전해야 하는지를 이해하는 데 도움이 되는 사례들이다. 결론적으로 인간의 두뇌는 연산과 학습과 기억과 회상을 하는데 20W의 전력이 필요한데, 이를 모방해 저-전력의 칩을 개발하자는 것이다.

[글 싣는 순서]
1. 배경(Background) – Edge AI <-> Cloud AI의 쌍방향 시대가 온다
2. 뉴런과 시냅스의 신경망
2-1. 뉴런과 시냅스, 연산과 학습과 저장(기억)을 동시에 처리
2-2. 가소성과 SNNs/JNNs과 STDP와 LTP/LTD
2-3. 시냅스의 역할
3. 비-신경세포인 신경교의 별 세포 또는 성상세포
4. 회로를 구성하는 4번째 요소인 멤리스터(memristor)란?
4-1. 추아(Chua, 1971)가 제안하고 HP의 연구원들이 발견(2008)
4-2. 멤리스터의 만능 기능, 토탈 리콜(Total recall)이 가능
4-3. 어떤 원리인가? 이력현상(hysteresis effect)
5. 획기적인 에너지 절감의 AI칩·신경모방칩에 도전하는 사례들  
5-1. 프랑스/미국, 스스로 학습할 수 있는 인공 고체 시냅스인 멤리스터 개발
5-2. 미국 스탠포드대, 신경모방 컴퓨팅을 위한 인공 유기 시냅스 개발


1. 배경(Background) – Edge AI <-> Cloud AI의 쌍방향 시대가 온다

기존 APU는 한 번에 하나씩 순차적으로 정형화된 데이터를 빠르게 처리했지만, 인간의 뉴런과 시냅스의 신경망을 모방하는 인공지능칩(AI Chip) 혹은 신경모방칩(Neuromorphic Chip)은 기기(Edge) 내의 이미지처리, 음성인식 등 다양한 비정형 데이터를 빠르게 처리할 수 있다. 

현재 아마존의 에코를 비롯하여 구글의 홈(어시스턴트) 등 AI 스피커들은 입력된 음성을 클라우드로 보내 여기에 탑재된 클라우드 AI가 답변을 찾은 뒤(이를 Edge to Cloud라 함), 다시 스피커로 전송하는 방식을 채택하고 있어(이를 Cloud to Edge라 함), 그 결과 음성인식 AI 비서가 사람의 말을 알아듣는 데 최소한의 시간이 걸리고(이를 Latency라 함), 인식률이 정확하지 않으며(음성인식률/얼굴인식률/이미지인식률 등이 대략 95%가 한계), 클라우드는 슈퍼컴퓨터라 클라우드 AI가 처리하는데 들어가는 파우어가 0.1MW~1MW 수준으로 고-전력이 소요된다. 

이세돌-알파고의 유튜브 중계장면 [사진=트위터 Samim]

예를 들어 2016년에 이세돌과 바둑을 둔 알파고 리(AlphaGo Lee)는 4개의 TPU로 1MW의 고-전력을 소비했으며, 2017년에 중국에서 커제(Ke Jie)와 바둑을 둔 알파고 마스터(AlphaGo Master)는 하나의 TPU로 0.1MW의 전력을 소비한 반면 이세돌이나 커제는 고작 두뇌에서 20W의 전력만을 소비했다. 

또한 클라우드 AI는 해킹에 취약하고 따라서 개인정보 유출의 위험성이 높다. 이러한 문제를 해결하기 위해 등장한 것이 기기에 탑재되는 Edge AI칩이다. Edge AI칩이 발전할수록 기기 자체에서 처리할 수 있는 데이터 량이 늘면서 데이터 처리 속도가 빨라져 사용자의 서비스 만족도도 늘어난다. 

이러한 개념은 많은 자동차/드론 관련 컨설팅 회사들의 최근 보고서를 보면 파악할 수 있는데, 그것은 ‘클라우드에서 온프레미스로 이동한다(the shift is moving back from the cloud to on premise)’는 것이다. 이때 ‘on-prem’이란 부분적으로 자동차나 드론을 말하는데, 좀 더 구체적으로 얘기하면 디바이스 자체인 기기(Edge)를 말하는 것이다. 

클라우드 컴퓨팅의 종말 프레젠테이션 화면 갈무리 [사진=a16z.com]

이를 가장 빨리 이해한 기업은 A16Z인데, 이들은 ‘클라우드 컴퓨팅의 종말(The End of Cloud Computing)’(a16z.com, 16 Dec 2016)이란 프리젠테이션에서, “하늘에 있는 클라우드는 종말이 오고, 바퀴와 날개를 가진 셀프-드라이빙 카나 드론 자체가 데이터 센터가 된다는 것(where self-driving cars and drones are really data centers with wheels or wings)”이다. 

이것이 바로 블록체인(Block Chain)의 원리이다. 중앙화 중심의 클라우드(Centralized Cloud-Centric)와 Aloud AI로 그간 구글, 페이스북 등은 데이터의 독점과 경제의 독점으로 거대 제국을 이루었다. 

최근 페이스북의 개인정보 유출 등 그 피해 사례가 점점 가시화되고 있다(The Guardian, 18 Mar 2018). 왜 내가 글을 써서 올리는데 내 데이터로 떼돈을 벌고 있는 기업들은 바로 페이스북인가? 그래서 탈-중앙화된(Decentralized) 디바이스(Edge)로 데이터를 분산시켜 데이터와 경제의 주권화를 찾자는 것이다. 

블록체인은 분산원장(Distributed Ledger) 기술로 거래정보를 기록한 원장을 금융기관 등 특정 기관의 중앙서버가 아니라 P2P(Peer-to-Peer, 개인 간) 네트워크에 분산해 참가자가 공동으로 기록하고 관리하는 기술이다. 

이 개념의 출처는 아마존(Amazon)이 비밀리에 개발하고 있는 자율차 개발 프로젝트인 코드명 보그(Borg)에서 나온 것으로 보인다(Humanizing Tech, 12 Jan 2017). 코드명 보그란 무엇인가? 바로 영화 ‘스타 트렉(Star Trek)’에 등장하는 보그이다. 아마존의 CEO 제프 베조스(Jeff Bezos)는 스타 트렉 재방송을 빠짐없이 챙겨볼 정도로 스타 트렉 광팬이었다고 한다. 아마존 설립 당시에 스타 트렉에 나오는 장-뤽 피카드(Jean-Luc Picard) 선장의 대사를 인용해 회사명을 Amazon MakeItSo.com으로 검토했을 정도다. 

스타 트렉에 등장하는 반 기계 반 유기체 종족 보그 퀸 [사진=스타 트렉 화면 갈무리]

스타 트렉에 등장하는 보그는 AI로 제어되는 집단의식(AI-controlled collective consciousness)을 이용해 보다 빠르고 보다 낫게 의사결정을 한다. 다시 말해 기업들이 최상의 방법으로 공유할 수 있는 그룹사고(groupthink)이다. V2V/V2I/V2P/V2G가 되든 V2X가 되려면 모든 자율차나 자율트럭들이 센서 데이터나 매핑 데이터베이스의 인공지능 알고리즘으로 리얼타임으로 학습하고 리얼타임으로 공유해야 하는데, 바로 아마존이 이것을 개발하는 것이다. 

예를 들어 20대의 자율차 혹은 20대의 드론이 광화문을 주행/비행한다고 하자. 그런데 광화문이 갑자기 테러집단에 의해 공격을 받는 상황이다. 테러집단들이 제일 먼저 하는 것은 광화문 일대의 통신을 마비시키는 것이다. 따라서 이미 클라우드로 데이터를 보낼 수 없는 상황이다. 이런 경우, 20대의 자율차와 드론들이 별도의 특별 통신, 예를 들어 레이저 통신을 통해 협력하여 최적의 판단/결정을 내려 테러집단을 물리치고 통신망을 복구시킨 후 클라우드로 보내면 클라우드는 하늘에서 전체 글로벌 데이터를 수집해 글로벌로 어느 지역에서 테러가 일어났고 일어날 것이란 것을 예측해 예방할 수 있다. 

이것이 바로 Edge AI에서 우선 판단을 하고 차후에 클라우드 AI에 알려 부분과 전체를 파악하는 Edge <-> Cloud의 개념이다. 물론 필자가 보기엔 클라우드의 종말이 아니라 디바이스 자체가 데이터 센터이므로 당분간은 양립하고 협력하는 하이브리드 형태로 갈 것으로 보인다(차원용, DigiEco, 13 Feb 2017; IT News, 16 Mar 2017). 마찬가지로 지금은 Cloud -> Edge 개념의 퍼블릭 블록체인도 결국 Cloud <-> Edge 개념의 하이브리드 블록체인으로 갈 것이고 반드시 인공지능이 합세할 것으로 예측하고 있다.

따라서 기존의 삼성전자와 인텔, 퀄컴 등 칩 제조사들은 그간 고객의 데이터를 구글과 애플, 페이스북의 클라우드에 독과점을 허용했지만, 조만간 Cloud -> Edge로 데이터가 분산되기 때문에 Edge AI칩을 개발하는데 박차를 가하는 것이다. 

칩 제조사들의 CES 2018 주제를 보면 ‘우리는 데이터 회사이다’를 천명하고 있는 이유가 이 때문이다. 게다가 향후 플랫폼 베이스의 Cloud <-> Edge의 쌍방향 소통과 분석을 위해 구글·애플·아마존·알리바바·페이스북까지 Edge AI칩 개발에 뛰어들고 있는 실정이다(한국경제, 7 May 2018). 이들이 개발하고 있는 Edge AI칩은 향후 특허분석을 통해 상세히 소개할 예정이다.

애플은 이미 2017년에 A11 바이오닉(Apple A11 Bionic)이란 뉴럴 엔진 베이스의 Edge AI칩을 자체 설계해 대만의 TSMC가 10나노 공정으로 제작 공급해 아이폰 8, 아이폰 8 플러스, 아이폰X에 탑재하여 얼굴인식 기능인 페이스 ID를 사용할 수 있게 돕고 추후 3차원 AR/VR 서비스를 한다는 계획이다. 

따라서 향후 10년간은 누가 먼저 획기적인 Edge AI칩을 개발하는가에 따라 제4차 산업혁명이 판가름 날 것으로 보인다. 더욱이 Edge AI칩은 기본이고 모든 제4차 산업혁명을 주도하는 공통적인 핵심기술이자 융합기술이기 때문에 Edge AI칩을 선점하는 기업이 나머지 제4차 산업혁명 기술들을 모조리 선점할 가능성이 높다. 그리고 동시에 Cloud AI와 Edge AI를 연결하는 Cloud <-> Edge 서비스를 하는 기업이 등장할 것으로 예측된다. 

 

차원용 소장/교수/MBA/공학박사/미래학자 

아스팩미래기술경영연구소(주) 대표, (전)국가과학기술심의회 ICT융합전문위원회 전문위원, 국토교통부 자율주행차 융복합미래포럼 비즈니스분과 위원, 전자정부 민관협력포럼 위원, 국제미래학회 과학기술위원장 

[정리 이새잎 기자 ebiz@]