이봉규 제주대 교수·논설위원

필자는 컴퓨터분야, 세부적으로는 '인공지능' 분야의 연구에 종사하고 있다. 헌데 최근 들어 필자가 자주 접하는 질문이 '딥러닝'에 대한 것이다. '딥러닝'이 무엇인가를 물어보는 일반적인 질문에서부터 인공지능을 공부하고 연구하는 연구원들의 기술적이고 심도 있는 질문도 많이 받고 있다. 작년 구글의 바둑대결 이벤트가 많은 사람들의 관심을 끌었던 결과이다. '딥러닝'에 대해서 간략히 설명해보면 다음과 같다. '딥러닝'은 인간의 두뇌가 수많은 데이터 속에서 패턴을 발견한 뒤 사물을 구분하는 정보처리 방식을 컴퓨터가 모방할 수 있도록 하는 방법이다. 기존 컴퓨터 프로그램은 사람이 발견한 규칙을 그대로 컴퓨터가 실행토록 하는 방법이었다. 그러나 '딥러닝'은 이런 사람의역할을 컴퓨터가 스스로 할 수 있도록 하는 방식이다. 이런 '딥러닝' 기술을 적용하면 사람이 모든 판단 기준을 정해주지 않아도 컴퓨터가 스스로 인지·추론·판단할 수 있게되어 인간과 같은 지능적인 일을 컴퓨터가 할 수 있도록 해준다. 즉 사람이 개입하지 않고 컴퓨터가 스스로 답을 찾을 수 있도록 하는 방식으로, 우리가 아는 구글의 '알파고'도 '딥러닝' 기술을 이용하여 만든 것이다.

그런데 이러한 '딥러닝' 기술은 최근에 나온 것이 아니라 1997년을 전후해서 처음 제안되고 2000년 초부터 보급이 되기 시작하여 2010년대에 들어서면서 인공지능분야의 핵심적인 기술로 자리매김하게 되었다. '알파고' 현상으로부터 우리에게 익숙해진 '딥러닝', '인공지능'이 이미 오래전부터 개발되고 있던 기술인 셈이다. 그럼에도 2010년대에 들어서 '딥러닝'을 통한 '인공지능'이 획기적인 발전을 하였는지에 대해서는 의문점이 생길 것이다. 이 의문은 '딥러닝'의 성공배경에는 '빅데이터'의 활용이 필수적이라는 것으로 설명할 수 있다. 기존의 '인공지능' 개발에서는 제한된 소규모의 데이터를 수집하고 이를 사람이 분석하고 이를 컴퓨터에 입력시키는 방식이었다. 이런 방법은 많은 문제점을 보였는데 반해, '딥러닝'은 대규모 데이터를 활용하는 방법으로 기존 문제점을 해결함으로써 '인공지능'의 성능을 획기적으로 발전시킬 수 있었던 것이다. 이렇듯 미래 산업의 핵심요소인 '인공지능'을 위해서는 얼마나 유용한 데이터를 가급적 많이 모을 수 있느냐가 매우 중요한 요소인 것이다. 

이러한 기류를 반영하듯 국내외적으로 다양한 대규모 데이터를 효과적으로 모아서 '인공지능'에 활용하려는 움직임이 활발해지고 있다. 한국과학기술정보연구원은 국내 여러 연구진과 함께 알츠하이머를 유발하는 유전자에 대한 대규모 데이터를 구축하고 이를 분석하는 방법으로 기존방법으로 15년 가까이 걸리던 것을 6개월로 줄였다고 한다. 대규모 데이터의 활용이 얼마나 획기적인 것인지를 알 수 있는 단적인 예이다. 그럼 우리 제주의 경우를 생각해보자. 우리지역에서도 현재 '4차산업혁명', '인공지능'과 같은 것의 중요성과 이들 기술을 어떻게 제주의 산업에 접목할 것인가에 대해서 많은 논의가 되고 있는 것 같다. 물론 향후 우리 제주의 여러 산업분야에 '인공지능'기술을 접목하여 새로운 영역을 창출해야 하는 것은 꼭 필요한 것이다. 그러나 우리가 이러한 핵심 '인공지능'기술 자체를 주도적으로 개발하는 것은 지역 규모나 산업여건상 어려운 것이 사실이다. 그러나 첨단기술을 접목해야할 우리 지역의 산업군에 활용할 수 있는 대규모의 데이터를 구축하는 것은 가능한 일이다. 또한 이렇게 구축된 '빅데이터'들은 우리지역 주체들이 '인공지능'과의 접목을 통한 기술개발에 핵심적이고 주도적인 역할을 할 수 있게 만들어 줄 것이다. 지역의 '인공지능'관련 연구자들이 참여하는 제주지역 산업군 관련 대규모 데이터의 체계화가 중요해지는 이유가 여기에 있는 것 같다. 

저작권자 © 제민일보 무단전재 및 재배포 금지