[224호 과학학술: 뉴로모픽칩] 뇌를 닮은 컴퓨터, 뉴로모픽칩

뉴로모픽칩의 부상

우리는 흔히 컴퓨터의 두뇌를 CPU 즉, 중앙 연산처리장치에 비유한다. 쿼드 코어는 인간으로 표현하자면 두뇌가 4개인 것을 뜻한다. 역사적으로 현대 CPU의 구조는 헝가리 출신의 미국 수학자인 존 폰 노이만이 고안하여 지금까지 약 70여 년 간 지속됐다. 이 구조는 입력된 정보를 저장이 가능한 메모리 장치에 전송하고, 논리연산장치(Arithmetic Logical Unit, ALU)가 계산하여 출력하는 방식이다. 인간의 관점으로 보면 자극을 입력 받아 뇌에서 처리하여 반응하는 것이다. 그러나 현대의 CPU와 인간의 뇌의 차이는 극명하다. 인간의 뇌는 정보를 학습하고 추론할 수 있기 때문이다. 이 관점에서 CPU를 해석하자면 단순히 사칙연산을 빠르게 수행할 수 있는 전자계산기일 뿐이다.

현대의 인공지능은 어떻게 볼 수 있을까. 지난 2016년 3월, 세기의 대국으로 기억될 ‘알파고 쇼크’를 상기해보면, 알파고 역시 사칙연산을 빠르게 수행하는 연산처리장치를 활용하여 전문 바둑기사의 기보를 학습했다. 그러나 학습의 원천은 심층학습(Deep Learning)이라는 알고리즘에 기인한 것이지, CPU와 같은 하드웨어가 학습한 것은 아니다. 더불어 심층학습 알고리즘조차 인간의 뇌가작동하는 방식을 지나치게 단순화했다. 심층학습을 수학적인 관점에서 보면, 이것은 최솟값을 찾는 최적화 문제로 귀결한다. 알파고의 인공신경망인 합성곱신경망(Convolutional Neural Network)의 미지수는 약 3만 개이다. 알파고가 학습한다는 것은 3만 차원의 비선형 함수에서 최솟값을 찾는 과정인 것이다. 그러나 합성곱신경망의 구조가 변경되면, 이전 결과는 무용지물이다. 최솟값을 찾는 목적함수 자체의 차원과 형태가 모두 변경되기 때문이다. 그 반면 사람의 뇌는 신경세포가 서로 연결되거나 끊어지는 역동적인 변화를 통해서 지속적으로 정보를 학습한다. 이 차이점이 현대 인공지능의 단면을 보여준다. 알파고는 바둑은 잘 두지만, 영상을 인식하거나 사람의 말을 이해할 수 없다. 그러나 인공지능 알고리즘에대한 전망은 밝다. 비록 사람의 뇌가 어떻게 학습하고 기억을 하는지에 대한 생리학적인 규명은 없으나, 활발한 실험과 가설검증으로 그 윤곽을 찾아가고 있으며 이를 알고리즘 형태로 구현하여 그 성능을 측정하고 있기 때문이다. 앞서 기술했듯이 심층학습의 과정은 최솟값을 찾는 것이다. 이것을 더 세부적으로 살펴보면 대부분은 행렬곱 연산으로 이루어져 있고, 필연적으로 강력한 계산능력을 요구한다. 동일 가격의 CPU 대비 최대 30배 이상의 성능을 보유한 GPU(Graphics Processing Unit)가 심층학습 전용 하드웨어로 각광받는 이유도 막대한 계산을 처리할 수 있기 때문이다. 그러나 계산은 곧 전력 소비와 직결된다. 인간의 뇌는 약 20W의 전력을 소비하는 반면 알파고 학습에 활용된 컴퓨터는 약 70㎾의 전력을 필요로 한다. 알파고와 바둑기사의 대결이 공정하지 못했다는 논란도 이 사실로부터 출발하는 셈이다.

결론적으로 현대 컴퓨터 구조와 전력 소비, 심층학습의 한계 등으로 비춰보면 사람의 뇌와 비슷해지는 계산 장치를 개발하는 길은 험난한 여정이다. 폰 노이만 구조에서 벗어나 사람의 뇌를 모사하는 연산처리장치를 개발하기 위한 노력은 1980년대부터 꾸준히 이어져 왔다. 여기에‘연산처리장치의 성능은 18개월 마다 2배씩 향상된다’라는 무어의 법칙에 의해 반도체는 지수적인 성능향상을 달성한다. 이 성장에 맞물려 사람의 뇌를 모사한 연산처리장치 개발도 점차 가시권에 이르게 됐다.

하지만 반도체의 지수적인 발전을 설명하는 무어의 법칙은 현재 깨어질 위기에 놓여있다. 바로 반도체 생산이 공정상의 물리적인 한계에 도달했기 때문이다. 이론적으로 반도체 생산 공정이 10㎚ 이하로 진입할 경우 전자가 바로 통과하는 양 자 터널링 현상에 직면한다. 이를 우회하기 위한 기술적 노력이 2배 성능향상에 소요되는 시간을 점차 늘리고 있다. 이 로인해 일반적인 연산처리장치의 성능향상은 정체기에 접어들고, 막대한 계산을 통해 학습하는 인공지능 역시 한계에 봉 착할 수 있다. 또한 사람의 뇌가 약 20W를 소비한다는 사실과 비교해 볼 때, 수 천 와트 이상을 소비하는 학습용 컴퓨터 시스템은 효율성이 매우 낮다. 진정한 의미에서의 뇌를 모방한 연산처리장치 개발은 장치의 소형화와 더불어 저전력 소 비라는 큰 숙제가 남아있다. 바로 뉴로모픽칩이 그 적절한 대안이다(표 1). 외부적인 환경변화와 기술적인 수요는 뉴로모 픽칩의 부상을 본격적으로 알리고 있다. 본격적인 출발은2008년 IBM이 미 국 방 위 고 등 연 구 계 획 국 (Defense Advanced Research Projects Agency, DARPA)의SyNAPSE 프로젝트를 수주하면서부터 시작한다. SyNAPSE 프로젝트는 사람의 뇌와 유사한 뉴로모픽칩을 개발하는 과제 로 2014년  양산 가능한 뉴로모픽칩 TrueNorth(그림 1)를 공개한 것으로 종료됐다. TrueNorth는 약 2.6억 개의 인공신경세포로 구성되고 약 70㎽의 전력을 소비한다. 인간의 뇌가 약 1,000억 개의 신경세포로 구성된다는 사실에서 볼 때 약 0.2%의 기능이 구현됐다고 볼 수 있다.

그림1

그림1

표1

표1

DNN과 SNN의 비교

뉴로모픽칩은 저전력을 달성하기 위한 하드웨어 구조상 일반적인 인공신경망(Artificial Neural Network)의 학습기법을 사용할 수 없다. 그 대신 스파이킹 신경망 (Spiking Neural Network, 이하 SNN)을 활용한다. SNN은 일반적인 심층신경망(Deep Neural Network, 이하DNN)과 학습방법에서 큰 차이가 있다. SNN이 신경세포 각각에 대해 지역적인 학습을 수행한다면, DNN은 신경망 구조 전체를 학습한다고 볼 수 있다.

DNN은 현재 가장 널리 활용되는 인공지능 알고리즘이다. 앞서 소개한 알파고 역시 DNN을 활용한 결과이다. DNN의 등장은 인공신경망의 대가인 토론토 대학의 제프리 힌튼 교수의 2006년 논문으로부터 시작한다. 당시 인공신경망의 학습방법은고질적인 문제가 산재한 상태였다. 가장 큰 문제는 앞서 기술했다시피 학습방법에 있다. 매우 큰 차원의 비선형함수에서 최솟값을 찾는 문제이기 때문에, 초기조건에 따라 성능의 편차가 매우 심하다는 점이다. 이것을 해결한 접근방법이 바로 비지도 학습(Unsupervised Learning)이다 . 기존의 지도학습(Supervised Learning)은 입력과 출력의 쌍으로 구성된 데이터를 학습하는 것이다. 반면 비지도 학습은 입력 값만으로 학습할 수 있다는 개념이다. 엄밀하게 말하면 학습이라기보다 비슷한 종류의 데이터를 분류하는 정도로 이해할 수 있다. 지도 학습을 시도하기 전에 비지도 학습을 수행하여 그 결과를 초기조건으로 활용하는 전략이 2006년 힌튼 교수 논문의 핵심이다. DNN의 대표적인 지도 학습방법은 오류역전파법(Error Back-propagation method)이다. 다르게 말하자면 초기신경망을 통해 산출된 결괏값과 실제 값의 차이를 최소화하는 방향으로 신경망의 가중치를 조정하는 방식이다. 여기서 최소화하는 방향은 오차함수에 대한 가중치의 편미분으로 표현되기 때문에 인공신경세포의 활성함수가 미분 가능해야하는 가정이 필요하다. 또한, 모든 인공신경세포가 연결된 구조에서는 모든 가중치가 서로 연관되어 변하기 때문에 신경망 구조 전체를 학습한다는 관점으로 해석할 수 있다. DNN의 대표적인 종류는 이미지 인식에 최적화된 합성곱신경망, 시계열적인 데이터 처리나 기계번역에 용이한 순환신경망(Recurrent Neural Network), 게임 인공지능에 활용되는 강화학습(Reinforcement Learning)이 있다. 폰 노이만 구조의 연산처리장치에서 구현 가능한 심층학습은 인공지능 분야에서 가장 활발한 연구가 진행 중이다. 적대적 생성신경망(Generative Adversarial Network)은 서로 대립관계에 있는 두 시스템의 경쟁을 통해 학습하는 방식으로 심층학습 이후 가장 혁신적인 방법론 중 하나로 부각되고 있다. 또한, DNN에 정보 저장의 기능을 추가한 메모리 모델은 사람의 뇌의 정보 저장 메커니즘을 반영한 방법론이다.

반면 SNN은 개별 인공신경세포를 학습시키는 방법론으로 신경세포의 실제 동작방식과 밀접한 관련이 있다(그림 2). 여기서 스파이크(Spike)는 생물학적인 뉴런이 정보를 교환할 때 발생하는 전기적인 파동을 말한다. SNN 모델은 생물학적인 사실에의거하여 세 가지 가정으로 출발한다. 첫째, 인공신경세포는 많은 입력을 받고 하나의 스파이크 신호를 출력한다. 둘째, 스파이크가 생성될 확률은 입력이 클수록 증가하고 약할수록 감소한다. 셋째, 오직 하나 의 기준점으로 스파이크 생성 여부 를 결정한다. 스파이크의 수학적 모델은 디랙-델타 함수이다. 시간에 따라 발생하는 간헐적인 스파이크는 각 스파이크에 해당하는 디랙-델타 함수의 합으로 표현되고, 이 합을 스파이크 트레인(Spike train)이라고 표현한다. 이 스파이크 트레인이 인공신경세포의 입력과 출력이 된다. 이러한 구조로 인해 SNN과 DNN은 학습하는 형태에서 본질적인 차이를 갖게 된다. 디랙-델타함수는 미분이 불가능하기 때문이다. SNN의 학습 과정은 특정 두 인공신경세포를 연결하는 가중치를 조정하는 것이다. 이것은 시냅스의 연결강도 조정을 위한 생리학적 학습의 규칙을 기술한 Hebb의 이론에 기반을 둔다. 쉽게 표현하자면 두개의 신경세포가 서로 반복적이고 지속적으로 점화(firing)한다면 상호 간의 가중치가 강화된다는 것을 의미한다. 가중치의 변화량은 두 인공신경세포의 스파이크 트레인과 스파이크 트레인의 저역통과필터(Low-pass filter)로 구성된다. 이 관계식을 통해 가중치가 변화하고 신경망이 학습된다. SNN의 구조는 세 가지 종류가 있다. 일반적인 DNN의 형태인 앞먹임신경망(Feed-forward Network)이 그 첫 번째다. 이것은 정보의 전파가 한 방향으로만 진행되는 것을 가정하기 때문에 시각, 후각, 촉각 등 낮은 수준의 감각 시스템이 응용분야이다. 두 번째는 순환신경망(Recurrent Network)이다. 소위 되먹임(Feedback) 구조가 존재하여 정보의 전파가 역으로도 가능한 시스템이다. 당연히 앞먹임신경망 보다 많은 계산량을 요구하지만, 신경 정보처리의 작동 방식 등 더 고차원적인 시뮬레이션이 가능하다. 마지막으로 앞서 소개한 두 가지 신경망의 혼합(Hybrid)형태가 있다.

그림2

그림2

정리하자면 DNN과 SNN는 추구하는 목표는 같지만 학습하는 방법상에서 서로 다르다고 볼 수 있다. DNN은 현재 인공지능 분야에서 가장 널리 활용되는 방법으로 그 영향력이나 성능이 SNN보다 높다. DNN 학습에 최적화된 하드웨어인 GPU의 저변확대로 저렴한 비용으로도 막대한 성능을 활용할 수 있는 것도 하나의 이유다. 반면 SNN은 향후 뉴로모픽칩의 확산에 힘입어 성장할 수 있는 잠재성이 크기 때문에 지속적으로 연구개발 성과를 주목할 필요가 있다.

 뉴로모픽칩의 현황 및 연구 동향

지난 2016년 IBM 연구진은 뉴로모픽칩 TrueNorth를 활용하여 합성곱신경망을 구현한 논문‘Convolutional Networks for Fast, Energy-Efficient Neuromorphic Computing’을 공개했다. 이 논문에서는 SNN 방법을 적용하여 이미지·음성 데이터에 대한 인공신경망을 구현했다. 특히 25~275㎽의 전력으로 학습이 가능했다는 점에서 저전력의 강점을 실험적으로 보여준 결과다. 인식률 성능의 측면에 서는 최신 기술보다 저조한 것으로 분석되지만, TrueNorth 가 실제로 개발이 완료된 시점이 2011년인 점을 감안하면 상대적으로 좋은 결과라고 볼 수 있다.

뉴로모픽칩의 수요는 스마트폰의 연산처리장치인 AP(Application Processor)에서도 존재한다. 어떻게 보면 가장 자연스러운 수요라고 볼 수 있다. 스마트폰의 AP는 전력을 덜 소비할수록, 더욱 지능적인 기능이 구현될수록 그 가치가 상승하기 때문이다. 현재 세계적인 AP생산 업체인 퀄컴은 이미 뉴로모픽칩의 가능성을 인지하고 지난 2014년부터 자사의 AP에 뉴로모픽칩을 구현하는 노력을 기울여왔다. 특히 2016년 Zeroth라는 인공지능 소프트웨어 플랫폼을 공개했다. 퀄컴 AP에 탑재된 NPU(Neural Processing Unit)를 활용하기 위한 도구이다. 주요 응용분야로는 사람의 얼굴과 동작 인식, 배터리 사용량 최적화 등이 있다.

스마트폰 세계 1위의 점유율을 보유한 삼성 역시 뉴로모픽 칩에 대한 관심이 큰 것으로 판단된다. 공식적인 언급은 없지 만 언론 기사를 분석해 보면 삼성전자는 인간의 뇌를 모사한 반도체 소자개발, 뇌 과학을 반도체에 적용하는 뇌 지도 연구, 연산처리장치와 메모리를 융합하는 연구를 수행하는 것을 확인할 수 있다. 또한 삼성은 IBM의 뉴로모픽칩을 활용한 동작 인식 데모 영상을 공개하는 등 뉴로모픽칩 연구개발을 활발히 진행하는 것으로 보인다.

뉴로모픽칩의 연구개발에 대한 정부의 입장 또한 긍정적이다. 지난 2016년 12월 정부는‘지능정보사회 중장기 종합대책’을 발표하면서 인공지능 하드웨어 기술로 뉴로모픽칩에 대한 연구개발 지원을 언급했다. 또한, 초저전력 반도체 개발사업에 대한 예비타당성 조사가 진행되고 있어 뉴로모픽칩에 대한 투자가 지속적인 관심을 받고 있다.

뉴로모픽칩의 향후 전망

뉴로모픽칩은 반도체 생산 공정의 환경변화와 모바일 분야의 수요로 인해 전망은 밝다고 볼 수 있다. 더불어 인공지능이 제4차 산업혁명을 견인할 핵심기술로 각광받음에 따라 인공지능 하드웨어 역시 집중적으로 조명받고 있다. 반도체와 스마트폰 강국인 우리나라가 향후 세계를 선도하는 연구를 할 수 있는 선택지 중 하나로 뉴로모픽칩이 유망하다고 본다. 그러나 숙제도 산재해 있다. 뉴로모픽칩은 본질적으로 폰노이만 구조와 다르다. 따라서 뉴로모픽칩에 맞는 새로운 형태의 프로그래밍 언어가 필요하다. 그뿐만 아니라 새로운 운영체제, 소프트웨어 엔지니어링, 파일시스템 등 기존과는 전혀 다른 소프트웨어 개발 도구와 방법이 필요하다. 퀄컴의 Zeroth 플랫폼이 바로 이를 겨냥한 전략적 행보라고도 볼 수 있다. 또한, SNN에 대한 원천 연구도 병행해야 한다. 현재 DNN은 하루가 다르게 발전하고 있으며 새로운 방법론이 지속적으로 공개되고 있다. DNN의 새로운 아이디어를 SNN의 형태로 구현하는 방식으로도 돌파구를 찾을 수 있을 것이다. 마지막으로 무어의 법칙의 종말에 따른 차세대 컴퓨팅으로 뉴로모픽칩이 더욱 부상할 것이다. 또 다른 선택지로 양자컴퓨팅이 있으나, 아직 갈 길이 멀다는 것이 보편적인 의견이다. 또한 인공지능이 득세한 현시점에서 뉴로모픽칩 기술의 선도적 확보는 국가 경쟁력과도 직결될 것이다. 사람의 뇌를 닮은 컴퓨 터, 뉴로모픽칩의 전성시대가 근시일 내에 개막될 것으로 전망한다.

추 형 석 / 소프트웨어정책연구소

 학술팁

작성자: khugnews

이글 공유

댓글 남기기

이메일은 공개되지 않습니다. 필수 입력창은 * 로 표시되어 있습니다.