<차원용 칼럼> 인공지능 2.0에서 3.0으로 가는 길

차원용 승인 2023.10.05 10:31 | 최종 수정 2023.10.06 16:30 의견 0

차원용 공학박사
아스팩미래기술
경영연구소 대표

음성을 인식하는 AI 서비스는 알렉사를 탑재 한 아마존의

에코, 애플의 시리, 그리고 구 글 홈 또는 어시스턴트 등인 데 개인 음성 인식율 이 낮고 개인 맞춤식 서비스가 안되 어 고객들 이 잘 사용하지 않는다. 이에 반해 생성형 AI 는 사용 자와 대화형식으로 접근하기 때문에 아직은 초기 라 활용도가 좀 넓은 편이다. 최근 오픈 AI는 챗GPT에 보고 듣 고 말하는’ 새로운 기능을 곧 제공한다고 밝혔다. 현재의 대화는 대화창에 프롬프트(명령어)를 입력하는방식이지만, 이제는 각종 이미지(예, AR과 3D 이미지)와 함께 음성대화 가 가능해지는 것이다. 무슨 얘긴고 하면 이미 미국 국방

과학연구소(DARPA)가 2017년에 제시한 다. 설명 가능한 인공지능(XAI)을 개발 서비스한다는얘기이다. XAI 가 개발 서비스 되면 AI 개발의 최종 목표인 범용인공지능(AGI)에 한걸음 더 다가서는 것이다. 다시 말하면 인공지능 2.0에서 3.0으로 업그레이드되는 것이다.

기존 인공지능 2.0의 한계

그렇다면 생성형 AI를 비롯한 지금의 인공지능들은 AI의 최종 목표인 범용인공지능(AGI)에 한참 뒤진다는 얘기인데, 엄밀히 말하자면 생성형 AI를 포함한 지금의 모든 인공지능들은 클라우드 AI를 기반으로 하는 인공지능 2.0이다. 왜 2.0이냐 하면 인공지능이 태동한 1960년대를 기준으로 판단해 봤을 때 2014년에 들어서야 산업과 제품과 서비스에 적용되었기 때문이며, AI의 최종 목표인 ‘안전하고 유익한 AGI를 구축하고 서비스하는 것’을 고려해 볼 때 그 수준이 2.0에 불과하다는 뜻이다. 따라서 지금의 인공지능 2.0의 한계 또는 단점을 살펴보고 그 단점 또는 한계를 극복하는 방법을 토론하고 강구해야 한다.

1) 음성 인식의 한계 – (1) 지금의 음성인식은 고객(대화자)이 누구인지 신원(이름)을 인식하지 못한다. 따라서 일반적으로 누구나 대화가 가능해 TV에서 나오는 광고 소리를 듣고 주문하기도 한다. 애플의 시리도 TV 아나운서의 말에 대답한다. 아직은 주인의 음성을 알아차리지 못하기 때문이다. 그러니 개인 맞춤식 서비스가 불가능하다. (2) 한 번에 한 사람의 목소리만 인식하고 대화함으로 인간처럼 멀티 사용자와 멀티-대화가 불가능하다. 그러니 학교의 교실에서 사용할 수 없다. (3) 여러 사람의 멀티-웃음도 감지하지 못한다. 더 나아가 왜 웃는지 지금의 음성인식은 이해하지 못한다. 인간처럼 실제적인 표정 등 감정을 인식/표현하지 못한다는 얘기이다. (4) 인간은 오감으로 사람의 음성을 인식하지만, 지금의 음성인식은 오로지 청각 기능으로(전적으로 마이크로폰에 의지) 음성을 인식한다. (5) 인간은 전화하면서 동시에 커피도 마시고 PT도 작성하고 글도 보고 쓰고 손으로 연필도 쥐고 하는데, 지금의 음성인식은 이러한 멀티태스킹(Multi-tasking)을 하지 못 한다. (6) 음성인식 스피커들은 전원이 항상 켜져 있어야 하므로 보안/해킹에 취약하다.

2) 대화의 문맥을 인식하지 못해 - Google은 2017년에 6명의 신원(이름)을 인식하는 구글 홈(Google Home)을 선보였다. 두 번의 반복적인 “OK Google”과 “Hey Google”로 본인의 음성을 학습시켜 뉴럴 네트워크가 본인의 음성을 인식하지만, 그 대신 스마트 기기의 모든 본인의 데이터(예, 일정/전화번호 등)를 오픈해야 한다. 따라서 음성 인식률에 데이터를 추적하여 초기의 고객 맞춤식 서비스를 하고 있어 다른 스피커들과는 차별화는 있으나, 6명의 멀티 사용자들(multiple users)과 동시에 대화할 수 없어, 실제 학교에서 사용할 수 없다. 학교에서는 학생들이 다양한 감정과 함께 다양한 질문을 동시에 해도 선생님은 누가 어떤 감정으로 무슨 질문을 했는지 다 파악한다. 구글 홈의 데모는 자회사인 구글 웨이모가 샌프란시스코에서 로봇택시 서비스를 하고 있기 때문에, 아침을 먹으면서 누가 아이들을 학교에 데려다 주고 출근해야 하는지를 판단하는 대화의 시나리오가 나오는데, 대화의 문맥을 인식하지 못하기 때문에 구글 홈은 의사 결정에 참여하지 못하고 결국 의사결정은 사람들이 한다.

3) 동영상 속의 사물 인식 한계 - 구글은 2014년에 자동영상사물인식(Automatic Large Scale Video Object Recognition, 8,792,732)이라는 특허를 획득하고, 2017년에 이를 바탕으로 클라우드 비디오 지능(Cloud Video Intelligence)이라는 서비스를 출시했다. 이는 비디오의 라벨(Labels) 인식, 샷(Shots) 인식, 텍스트 인식, 로고 인식, 얼굴 인식, 사람 감지 등 총 10여 가지 인식을 제공하는 인공지능 서비스로, 실제 인식률을 분석 테스트한 결과 라벨인식(Zoo)은 91%, 샷 인식은(Tiger) 90% 정도의 수준이다. 이는 기술적인 인식률이며 품질 한계치인 95%에 못 미치는 수준이다. 또한 제품에 브랜드 정보(로고, 브랜드명)가 있을 경우 브랜드는 파악할 수 있지만 해당 제품의 정보를 가져올 수 있는 기능은 아직 없으며, 구글 클라우드 또는 로컬 저장소에 저장된 영상에 한하여 분석이 가능하고, 유튜브는 현재 인식이 안되고 있다.

4) 알파고의 한계, 멀티태스킹 불가, 설명 불가 - 구글은 2016년에 알파고 리(AlphaGo Lee)를 선보이며 이세돌 9단을 상대로 4:1로 승리했다. 하지만 알파고 리의 단점은 인공지능 2.0이라 바둑밖에 두지 못한다는 것이다. 다시 말해 모노태스킹(Mono-tasking)만 하지 이세돌처럼 멀티태스킹(바둑, 커피, 담배, 감정표현 등)을 하지 못했다는 점이다. 또 다른 구글 알파고의 한계는 왜 그렇게 추론하고 판단했는지, 어떻게 이겼는지 설명(Explainable)을 안 해준다는 것이다. 지금 2.0 세대의 인공지능들은 모두 왜 그러한 추론 및 판단으로 결정했는지 논리적으로 설명하지 못해 활용 범위가 제약되고 있다는 한계가 있다. 인공지능과 인간과 협력해야 하는 공존공생(Symbiosis)의 방향에서 이는 커다란 난제이다. 인간이 인공지능의 추론과 판단을 이해하고 인공지능은 인간을 이해해야 공존공생의 협력이 가능하다.

5) 클라우드 AI는 고전력, 누구나 엑셀처럼 사용할 수 없어 - 또 다른 구글 알파고의 한계는 에너지 소비인데, 이세돌과 격돌한 알파고 리(AlphaGo Lee)의 전력 소모는 슈퍼컴퓨터와 맘먹는 1MWh를 소비했다. 그 이유는 알파고 리에는 1,202대의 CPUs, 176대의 GPUs가 연결된 클라우드 컴퓨터(48 TPUs)로 슈퍼컴퓨터이기 때문이다. 따라서 알파고는 일반인들에게 상용화할 수 없다는 문제를 안고 있다. 누구나 손쉽게 사용할 수 있는 인공지능이 아니라는 점이다. 우리가 액셀이나 파워포인트를 누구나 사용하듯 인공지능도 누구나 사용할 수 있어야 하는데 아직은 그렇지 못하다는 점이다.

6) 클라우드와 클라우드 AI는 고체 칩, 유기체 칩으로 바꾸어야 - 슈퍼컴퓨터들은 왜 이렇게 많은 전력을 소비할까? 왜냐하면 그 이유 중의 하나가 슈퍼컴퓨터에 들어가는 칩들이 고체 칩으로 만들어 졌기 때문이다. 따라서 슈퍼컴퓨터에 내장된 고체 칩을 인간의 뉴런과 시냅스 같은 유기체 칩(Organic Chip)으로 전환해야 한다. 인간이 사용하는 20Wh의 뉴런과 시냅스 같은 유기체 칩을 개발해야 한다.

7) 초거대 혹은 초대규모(Hyper scale)의 단점 – 지금 구축하고 있는 초거대 혹은 초대규모(Hyper scale) AI는 수천억 개의 파라미터(매개변수)를 구축하는 것이다. 이렇게 구축하여 언어 이해, 언어 생성 및 이 둘을 합쳐 대화를 통해 언어 모델을 만들어 인공지능으로 하여금 자연어 언어를 구사하도록 하자는 것이다. 지금의 생성형 AI가 초대규모에서 탄생한 것이다. 그런데 이러한 자연어 언어를 인공지능이 구사한들 감각이나 감정을 표현할 수 있을까? 인간의 멀티감정을 표현할 수 있을까? 감정에 따른 행동을 이해할 수 있을까?, 상당히 급해 도로를 무단 횡단하는 인간의 행동을 이해할 수 있을까?

8) ‘AI 지수(AI Index)’ 보고서, 아직 5살 어린이 지능에도 못 미처 - MIT, 스탠포드대, 오픈AI 등 미국 대학 및 연구소 연구진이 소속된 ‘AI 지수’(AI Index – https://aiindex.org/)가 2017년에 공개한 '2017 AI 지수 보고서'는 ‘AI는 아주 좁은 분야에선 인간보다 뛰어난 면모를 보이지만 일반 지능(general intelligence, AGI)의 관점에선 아직 한계가 뚜렷하다’는 것이다. 다시 말해 Mono(예, 바둑)는 잘하는데 Multi-Tasking은 아직 5살 어린이 지능에도 못 미친다는 것이다. 결론적으로 지금의 인공지능은 이제 5살 수준으로 한참 가야 한다는 것이다.

2022년 7월에 네이처(Nature) 지는 구글의 딥 마인드(DeepMind)가 발표한 논문인 ‘직관적인 물리학 학습(Intuitive physics learning)’을 인용하여(Piloto et al., Nature Human Behaviour, 11 Jul 2022), AI가 이제 5살 어린아이가 배우는 간단한 물리 법칙을 깨우치고 있다고 보도했다(Nature, 11 Jul 2022). 이때의 물리 법칙이란 어린아이가 응시하는 물체들, 예를 들어 어린아이는 공(ball)이 갑자기 시야에서 사라질 때 놀라는 반응을 보이는데, 어린아이가 공이 사라진 방향으로 얼마나 오랫동안 응시하는지를 계량화하여 AI의 뉴럴 네트워크인 소프트웨어에게 이를 학습하도록 하는 것이다. 이 소프트웨어를 PLATO(Physics Learning through Auto-encoding and Tracking Objects)라 하는데, 문제는 이런 식으로 학습시켜서 언제 일반인들처럼 느끼게 하는가이다.

9) 생성형 AI의 한계 – 상기와 같은 한계 이외에 (1) 생성형 AI는 오픈된 데이터와 클라우드 AI를 바탕으로 하는 태생적 한계가 있다. 오픈된 데이터는 대부분 참고 문헌도 없는 가치가 없는 데이터들이라는 점이다. (2) 따라서 사고능력의 한계가 뚜렷하고 정보 정확성의 한계와 거짓 정보를 그럴듯하게 생성하여 답변하는(이를 Hallucination이라 함) 문제 및 판단의 편향성 문제가 존재한다. 또한 참고 문헌도 인터넷에 오픈된 것만 제공한다. 예를 들어 구글의 바드(Bard), 마이크로소프트의 빙(Bing), 오픈AI의 ChatGPT를 사용해 로마의 황제 중 AD 27~217년에 버가모(Pergamum) 총독에게 글라비(glaive or glave)라는 외날 검(the single-edged sword)을 하사한 황제가 누구인지를 물었으나 각각 답변이 다 다르고 근거가 무엇이냐고 묻자 대답이 다 달랐으며 참고문헌도 정확하게 제시하지 못했다. 또 하나 예를 들어보자. 필자는 책을 50권 정도 썼는데 그 중 몇 권이 영어로 아마존에 올라와 있다. 책 제목을 주고 내용과 저자가 제시하는 미래상을 요약해 달라고 하자 70%가 거짓 정보였다.

인공지능 2.0에서 인공지능 3.0으로: X-ABNI+α에 도전

지금까지 살펴본 인공지능 2.0 현황분석을 종합해보면, 지금의 인공지능 2.0은 오감 중 단일 인식만(예, 따로 따로의 음성인식 및 이미지 인식 등) 하고, 오감이 융합된 감성의 감정 표현을 못 한다. 또한 왜 그렇게 추론하고 판단했는지 설명을 안 해준다. 이에 우리가 도전해야 할 인공지능 3.0의 ‘설명 가능한 X-AI(인공지능)+BI(생물지능/감성지능)+NI(자연지능)+α(추가연구)’를 제안하는 바이다. 이 때 X는 설명 가능한(Explainable) 뜻이다. 우리가 이 제안의 AI 3.0을 개발-구축-구현한다면 우리나라는 구글-마이크로소프트-애플-메타-IBM 등을 능가하는 인공지능 강대국이 될 수 있다. 또한 동시에 AI 3.0 이상 되어야 메타버스(AR-MR-VR)를 구축-구현-서비스할 수 있다. 다음은 지금의 인공지능 2.0에서 2030년의 3.0으로 전환/발전시키는 방법을 서술한 것이다. 이에 대해 생각해보고 더 나은 방법이 있으면 토론해보자.

1) 오감의 작동 알고리즘 –> 시각/음성 인식률 향상 및 감정표현 – 인간의 감정은 오감에서 나온다. 오감은 시각-청각-촉각-후각-시각이다. 우리의 시각은 눈(예, 카메라)에만 의존하지 않는다. 듣고 본다. 만지고 본다. 더욱이 사물이나 사람을 볼 때는 상대적이다. 우리의 청각은 귀(예, 마이크로폰)에만 의존하지 않는다. 보고 듣는다. 만지고 듣는다. 더욱이 사물이나 사람의 소리를 들을 때는 또한 상대적이다. 이 말은 지금 인공지능 2.0의 시각인식(예, 이미지 인식)은 오로지 카메라(예, 화소)에만 의존하기 때문에 인식률이 인간을 따라올 수 없다. 지금의 음성인식은 오로지 마이크로폰에만 의존하기 때문에 인간의 음성인식을 따라올 수 없다. 게다가 인간은 감성의 감정에 따라 시각과 음성이 다 다르다. 따라서 오감이 어떻게 작동되는지 생물학적으로 접근해야 하고 그에 따라 감성의 감정이 어떻게 변화하고 표현되는지 생물학적/심리학적 등으로 접근해야 한다. 적어도 오감의 이러한 메커니즘을 알고리즘으로 써서 2030년에 인공지능에 융합해 인공지능 3.0으로 발전시켜야 감각이 증강된 증강현실을 구현/서비스할 수 있고, 감정의 알고리즘(감성지능과 감정지능)을 2040년에(예, 인공지능4.0), 생각-마음-의식의 메커니즘을 2050년에(예, 인공지능 5.0) 인공지능에 융합해야 한다

2) 생물지능(BI, Biology Intelligence)+α – 인간의 두뇌는 30%의 뉴런과 시냅스로 이루어진 신경세포 이외에 성상세포(별세포, 신경교) 등으로 이루어진 70%의 비신경세포로 이루어져 있다. 지금은 30%의 신경세포의 메커니즘을 모방하는 것이 인공지능 2.0이다. 그런데 지금의 인공지능 2.0은 인간의 신경망을 그저 모방(시뮬레이션)하는 것이지 100% 모사하는 것은 아니다. 필자가 인공지능칩을 개발하는 기업들의 특허 1,000개를 분석한 결과 지금의 인공지능칩은 인간의 신경망을 모방하되 데이터를 처리하는 방식은 모두 병렬 방식이었다. 그러나 인간의 신경망은 다층 네트워크(Multi-layered networks, 예, 뉴런은 6개의 네트워크)로 구성되어 있다. 다층 방식을 두개의 병렬 방식으로 처리하는 꼴이다. 물론 인간의 신경망이 완벽하게 생물학적으로 밝혀지지 않은 이유도 있다. 따라서 앞으로 신경세포와 비신경세포의 메커니즘을 밝혀 인공지능 3.0-4.0-5.0에 융합해야 한다. 더 나아가 유전자, 유전자가 생산하는 단백질, 히스톤(Histone) 변형 등의 후성유전체(Epigenome), 신진대사, 환경 등에 따라 항상성(Homeostasis)과 의사결정이 바뀌는 메커니즘도 밝혀 융합해야 한다. 인간의 뇌는 이러한 여러 변수들에 따라 물리적인 구조를 자유롭게 바꿔가며(정신물리학적 모델과 생물물리학적 모델 등) 정보를 입력하기 때문에, 지금의 CNN/RNN/GAN 등의 신경망 알고리즘에 한 차원 높은 다른 신경망 알고리즘들이 융합되어야 한다.

3) 저-전력의 SNN & JNN+α – 앞에서도 지적했지만 인간의 뇌는 지금의 컴퓨팅처럼 선형/순차(Linear/Serial)나 병렬방식(Parallel)이 아닌 다층적(Multi-layered)이며 게다가 가소성(Plasticity)이 있어, 뉴런에 불을 붙일 때 고장 난 100개를 우회하거나 점핑(Jumping)할 수도 있고, 과거에는 고장 났지만 다른 기억을 회상할 때는 다시 살아나 불을 붙일 수 있다. 이러한 20Wh만을 소비하는 저-전력의 신경망을 가소성을 가진 JNN(Jumping Neural Network) 혹은 SNN(Spiking Neural Network)이라고 한다. 따라서 다층적인 가소성의 메커니즘과 JNN 혹은 SNN의 메커니즘을 연구하여 알고리즘으로 써서 인공지능 3.0-4.0-5.0에 융합해야 한다. 또한 그 이외의 α도 연구해 융합해야 한다.

4) 한글 말뭉치의 표준화+α - 한글의 정제 및 표준화를 통해 무수히 많은 말뭉치(Corpus)의 스마트 데이터를 구축해야 한다. 컴퓨터가 인간의 말이나 글을 제대로 이해하고 반응하려면 인간이 말하고 쓰는 자연언어를 처리할 수 있는 방대한 언어 데이터베이스가 필요한데, 이를 말뭉치(Corpus)라고 한다. 여기에 인간의 행동 및 인간의 감정도 같이 포함해 구축해야 하고 MZ와 알파 세대들의 은어와 한류문화의 가사와 가수들의 감정 표현까지 포함해 구축해야 한다. 이것이 초거대 혹은 초대규모(Hyper scale) AI의 파라미터(매개변수)를 구축하는 방법 중의 하나인데, 우리는 이 분야에서 한참 뒤처져 있다. 계획에 따르면 2022년부터 우리나라는 기초 언어자원으로 시기-매체-장르별로 다양한 한국어 말뭉치 155 어절과 구성-형식-분석체계 등이 정제되어 준거가 될 수 있는 표준 말뭉치 1억4천만 어절을 구축/보급한다. 이 참에 앱을 만들어 전국민에게 보급하여 전국민이 참여하는 말뭉치+α 구축 사업을 전개해야 우리나라도 인공지능의 선도국이 될 수 있다.

5) 언어 유전자+α - 또 하나 전 세계인의 언어 유전자가 있다. 이 언어 유전자에 따라 각국의 언어가 다르다. 따라서 인간의 언어 유전자인 FOXP2의 메커니즘도 연구하여 인공지능에 융합시켜야 한다. 필자가 보기엔 데이터와 파라미터보다도 이 FOXP2가 더 중요한 것으로 보이는데, 한국인의 FOXP2를 연구하는 것이다.

6) 전 세계의 언어인 한글 운율을 리듬/박자로 코딩+α - 모든 전 세계 7,000개의 언어에는 운율(리듬/박자)이 있다. 충남대 정원수 교수에 따르면 그중 한글(세종대왕, 1443년 완성되어 1446년 반포)에 가장 아름다운 운율이 있다고 한다. 음악의 공통 유전자가 전 세계인에 있다는 것이 밝혀졌다. 그중 한국의 음악이 최고이다. 왜 ‘아리랑’ 노래가 나오면 전 세계인이 숙연해지면서 옛날 조상들의 고생했던 감정을 갖는지 그 이유를 아는가? 바로 ‘아라리’가 전 세계인의 고향이기 때문이다. 이 가장 아름다운 한글 운율을 음표(콩나물 표식)로 나타내면 전 세계 언어를 하나로 번역할 수 있다. 그러면 게임 체인저가 되는 것이다. 그리고 우리가 이를 인공지능 3.0-4.0-5.0에 융합하는 것이다.

7) 자연지능(NI, Natural Intelligence)+α - 기타 생물/식물/동물/어류 등이 가진 자연지능도 밝혀 3.0-4.0-5.0에 융합해야 한다. 이를 생체모방기술(Biomimetics or Biomimicry)이라고 하는데, 동물이나 곤충이나 식물이나 어류들은 자연에서 다 살아가는 나름의 지능이 있다. 이들을 모방한 시스템이나 디바이스나 소재들이 많이 나오고 있다. 이것을 알고리즘으로 써서 인공지능에 융합해야 한다.

8) 고체 칩->유기체 칩으로 전환+α – 인간의 뉴런과 시냅스는 1시간에 20W만을 소비한다. 그것도 뉴런에 처음 불을 붙일 때만 20Wh를 소비하고 그 이후로 우리가 집중할 때는 이보다 훨씬 덜 소비한다. 이처럼 지금의 고체 칩인 인공지능 칩을 인간의 뉴런과 시냅스 같은 유기체 칩(Organic Chip)으로 전환해야 한다. 이미 미국의 스탠포드 대학은 연구를 시작했다.

9) 설명할 수 있는 X-AI+BI+NI+α - 앞에서 지적했지만, 인간이 인공지능의 추론과 판단을 이해하고, 인공지능은 인간을 이해해야 공존공생의 협력이 가능하다. 따라서 현재의 인공지능 2.0에 설명 가능한 모델(Explainable model)을 넣어야 하고 프로그램 언어(예, 기계 언어)와 사용자의 언어가 상호 인터페이스 되어야 하며 사용자의 심리학적 수준에 맞추어 개인 맞춤식 설명을 해주어야 한다. 사용자가 초-중-고생인지 아니면 대학생인지 파악하여 그에 맞는 설명을 해야 하

고 지속적 대화를 해야 한다는 뜻이다. 여기에 앞서 설명한 BI 및 NI 등 모든 것을 융합해 설명 가능한 X-AI+BI+NI+α를 개발한다면 게임 체인저가 될 수 있다.

10) 블랙박스(Black box) – 그런데 2016년에 구글 딥 마인드와 영국 옥스포대가 공동 발표한 논문인 ‘안전하게 인공지능을 중지시키는 방법(Safely Interruptible Agents)’과 2017년에 구글 딥 마인드가 발표한 논문인 ‘인간의 지식 없이 바둑을 마스터하는 알파고 제로(Mastering the game of Go without human knowledge)’를 보면, 알파고는 처음에 인간의 지도학습과 스스로 하는 비-지도학습을 거쳐 1세대의 알파고 리(AlphaGo Lee)로 재탄생했다. 지금은 은퇴했지만 3세대 격인 알파고 제로(AlphaGo Zero)는 인간의 지식 없이, 다시 말해 백지상태(Tabula rasa)에서 3일 만에 알파고 리를 뛰어넘고, 21일 만에 중국 커제(Ke Jie)와 대결했던 2세대의 알파고 마스터(AlphaGo Master)를 뛰어넘어 40일 만에 신의 경지에 도달했다는 점이다.

어떻게 바둑의 기보나 인간의 지식 없이 백지상태에서 신의 경지에 도달했는지 아무도 모른다는 것이다. 이것을 인공지능의 블랙박스(Black Box)라고 말하는 것이다. 그래서 인공지능이 인간도 모르게 신의 경지에 다다랐으니, 언젠가는 인간을 몰살시킬 것이라 염려되어 ‘안전하게 인공지능을 중지시키는 방법’이란 논문을 발표하여 소위 말하는 인공지능을 언제든지 파괴시킬 수 있는 ‘킬 스위치(Kill switch)’를 만들자고 제안한 것이다.

그렇다고 필자가 보기엔 파괴시킬 것이 아니라, 어떻게 알파고 제로가 학습했는지 이 블랙박스를 열어 분석해보면 무언가 비밀을 알아낼 수 있지 않을까? 이것만 알아낸다면 우리가 피상적으로 알고 있는 인공지능이 아니라 인공지능의 학습-기억-회상의 원리를 알아내, 법률, 은행, 보험, 교통, 교육, 행정, 국방 등으로 분야별 모델을 개발 적용한다면 보다 실용적인 인공지능을 개발/발전시킬 수 있다. 지금의 인공지능 2.0으로 각 분야에 적용한들 그것은 피상적인 데이터 분석 결과만 나와 그 이상의 진정한 예측/추론에 의한 미래를 설계하고 평가할 수 없다. 우리나라를 비롯해 전 세계 인공지능 석학들이 지금 블랙박스에 도전하고 있는 이유이다. 심지어는 인공지능의 블랙박스를 분석해서 이를 파악하는 또 다른 인공지능을 만들고 있다.

11) 클라우드 AI와 엣지 AI의 쌍방향 구축 – 그렇다면 마지막으로 비즈니스모델을 보자. 지금은 글로벌의 클라우드와 클라우드 AI가 대세이지만 앞으로 10년내에 클라우드는 로컬의 엣지(Edge)로 이동한다. 그래서 지금 엣지인 스마트 기기, 자율차, 로봇, TV 등에 탑재할 수 있는 Edge AI를 개발하여 탑재하고 있다. 그러나 최종 비즈니스모델은 클라우드와 엣지가 쌍방향으로 연결되고 서비스되는 Cloud<->Edge 비즈니스 모델이다. 로컬과 글로벌이 만나야 거의 완벽한 비즈니스 모델이 되는데, 이러한 비즈니스 모델을 구축해야 2030년부터 거의 실시간의 진정한 인공지능 3.0을 구현하고 서비스할 수 있는 것이다.

저작권자 ⓒ 더리더스타임즈, 무단 전재 및 재배포 금지