인공지능의
글. 이재홍 연세대학교 융합과학기술원 특임교수
인공지능의 발전과 전망
MIT 교수로 세계 최고의 AI 연구소를 설립한 에드워드 프레드킨은 “우주 역사에서 첫 번째로 대단한 사건은 우주의 창조이고, 두 번째 사건은 생명의 출현이다. 세 번째 사건은 인공지능의 출현이다”라고 했다. 미래학자 레이 커즈와일은 저서 ‘특이점이 온다’에서 2045년쯤 인공지능이 모든 인류의 지능 합계를 초월하는 시대가 올 것이라고 예측했다. 그러나 AI는 최근 우리가 예측할 수 없는 형태로 무섭도록 빠르게 진화해 나가고 있어서 그 시기가 더 빨리 올 수도 있다.
AI 기술의 발전상에 대한 기대뿐만 아니라 부정적 영향에 대한 우려도 크다. 최근 오픈AI가 개발한 생성형 AI인 챗GPT는 엄청난 인기를 모은 동시에 인류의 미래에 대한 인공지능의 영향에 대해 격론을 촉발했다. 생성형 AI의 부정확성, 결과 해석을 어렵게 하는 기술적 한계, 딥페이크 등 사회적 피해에 대한 긴장이 높아지고 있다. ‘인공지능의 대부’로 불리는 제프리 힌턴 토론토대 명예교수가 10년 이상 몸담았던 구글을 떠나면서 “AI 기술이 적용된 킬러로봇이 현실이 되는 날이 두렵다”고 했다. 또한 그는 챗GPT 등이 생성한 가짜 사진, 동영상, 글이 넘쳐나며 무엇이 진실인지 알 수 없게 될 것이라고 경고했다. 오픈AI의 공동 창업자였던 일론 머스크 역시 AI의 잠재적 위험성을 경고하면서 AI 개발에 규제가 필요하다고 주장했다.
지금은 AI 발전의 1단계인 약 인공지능(NAI)으로 특정 작업에 집중해 정해진 범위에서 반복 작업을 수행한다. 많은 데이터를 학습하지만 프로그래밍된 특정 영역을 벗어나지 않기 때문에 자율주행이나 챗GPT도 이에 해당된다. 2단계는 범용인공지능(AGI)으로 인간이 할 수 있는 모든 지적 작업을수행할 수 있는 강 인공지능이다. 이 단계의 인공지능은 적절한 AI 규제가 없다면 인간에 큰 위협이 될 수 있다. 3단계 초 인공지능(ASI)은 AI가 인간의 지능을 추월하는 단계다. 초인공지능은 SF영화에 단골 메뉴로 등장한다. 터미네이터, 아이로봇, 허(그녀), 트랜센던스 등 많은 영화를 통해 ASI의 위력과 위험을 우리는 이미 알고 있다.
AI 윤리 문제와 험
2016년 MS가 개발한 AI 챗봇 ‘테이’는 백인 우월주의와 대량 학살을 옹호하는 표현을 했다가 사회로부터 뭇매를 맞고 서비스가 중단됐다. 이를 계기로 AI 서비스에 대한 부정 인식이 전 세계에서 강화되는 방향으로 부각했다. AI 챗봇 테이 사건 이후 AI를 단순히 과학기술을 넘어 인간 중심의 사회인문학 측면 개념으로 바라보는 움직임이 시작됐다. 우리나라는 2021년 스캐터랩의 AI 챗봇 ‘이루다’ 가 무분별한 개인정보 처리 등으로 제재를 받은 사례가 있다.
AI 윤리의 5대 문제로 오류와 안전성, 정보 편향성, 오남용 및 악용, 개인정보 유출, 킬러로봇을 제기할 수 있다.
인공지능이 오류가 생기면 일반 전자제품과는 달리 예상할 수 없는 큰 피해를 인간에게 끼칠 수 있다. 인공지능이 오류가 나면 놀랍게 그 원인을 잘 모른다. 소위 블랙박스인 것이다. AI가 스스로 인공신경망을 통해 복잡한 학습 과정을 거치기 때문에 그 모든 알고리즘을 일일이 다 파악할 수가 없다. 결국 인간이 만든 AI를 설명할 수 없게 되고 컨트롤하기 어려워지는 엄청난 리스크에 직면한다.
또한 생성형 AI는 인종차별, 성차별 등이 내포된 편향성의 이미지나 글을 생성할 수 있다. 정보 편향성을 스크린하기 위해 개발자와 연구자가 노력을 기울여야 하겠지만, 기초데이터의 수집 단계에서 편향 가능성이 있는 내용들에 완벽하게 개입하는 것은 쉽지 않다고 한다.
오남용 및 악용되는 사례로 거짓된 이미지와 복제된 목소리가 특정 정치인에게 유리하거나 해로운 방식으로 가짜 정보가 인터넷 공간에서 퍼질 수 있다. 최근 유명 배우 스칼릿 조핸슨(영화 ‘Her’의 AI 비서 사만다) 목소리의 도용 의혹 논란은 AI 기술발전 과정에 잠재된 윤리 문제를 대중적으로 일깨운 사건이다. ‘허락을 얻기보다는 용서를 구하라.’ 이 말은 실리콘밸리에서 행동강령처럼 여겨져 왔다고 한다. 문제가 생기면 용서를 구할지언정 일단 저지르고 보라는 뜻이 함축되어있다. 그러나 인공지능이 미칠 막대한 부정적 우려를 생각하면 AI 윤리를 충분히 고려한 새로운 실리콘밸리 혁신 행동강령이 필요한 시점이다.
최악의 상황은 AI가 킬러로봇과 같은 살상 무기로 사용될 수 있다는 점이다. 인간의 통제를 벗어나 프로그램이 오작동을 일으켜 무고한 사람들을 살상한다는 SF 영화가 허황된 것만은 아닐 수 있다. 또한, 우리가 만든 목표를 인공지능이 너무 능숙하게 처리해서 무심코 잘못된 목표를 주었을 때 인류를 말살시킬 수도 있다.
인공지능은 4차산업혁명의 심장과 같은 분야이다. 안전(Safety), 보안(Security), 개인정보보호(Privacy)가 제대로 고려되고 이행되지 않는다면 ‘혁신의 역주행’으로 인한 혹독한 겨울을 맞이할 수도 있음을 잊지 말아야 한다.
인공지능 규제정책과 거버넌스
빅테크 기업은 비판과 감시 속에서 AI 기술을 발전시키기 위해 경쟁해야 하고, 각국 정부는 혁신을 저해하지 않으면서도 AI를 규제해야 하는 압박에 직면했다. EU는 AI를 파괴적인 잠재력을 가진 디지털 혁신으로 간주해 빅테크에만 맡기기보다 정부가 개입해 개인의 기본권을 보호해야 한다는 입장이다. 유럽연합은 24년 5월 세계 최초로 인공지능 규제법인 인공지능법을 제정하였다. 미국은 23년 10월 행정명령을 발동해 인공지능의 안전한 개발과 보급을 유도하고 있으나, 기업의 자율 규제와 활용에 무게를 두면서 법적 규제는 신중한 모습이다. 우리나라는 AI 기업들이 사용자 데이터를 사용할 때 엄격한 동의 절차를 거치도록 규정하였으며, 현재 AI 기본법 제정을 추진하고 있다.
미국, 영국, 일본 등은 AI 안전연구소를 설립하고 첨단 AI의 안전성 테스트를 위한 프레임워크 개발과 정보, 인력 교류, 표준화에 상호 협력하기로 했다. 특히, 미국 AI 안전연구소는 24년 2월 상무부 국립표준기술연구소(NIST)를 중심으로 컨소시엄(AISIC)을 발족하고 공공-민간 협력체계를 구축하였다. AI 기업, 대학, 연구기관 등으로 구성하였으며, 구글, MS, 애플, 메타 등 빅테크, 오픈AI, 엔트로픽 등 스타트업, JP모건, 뱅크 오브 아메리카 등 금융기업이 200개 이상 참여하고 있다. 우리 정부도 금년에 AI 안전연구소 설립을 공식화하였다. 향후 AI 안전 확보를 위한 정부의 역할은 더욱 중요해지고, AI 안전연구소는 AI 안정성 테스트 방법 및 프레임워크 개발, AI 안전성 확보를 위한 원천 기술개발 및 표준화, 정책연구, 민간협력 및 국제 교류 등을 추진해 나갈 예정이다.
AI 규제가 있더라도 기업과 국가가 차원의 연구가 계속될 가능성이 있다는 점이 우려된다. 국가 간 패권 경쟁, 구글, 마이크로소프트 등 빅테크의 경쟁은 글로벌 규제 없인 절대 멈추지 않을 것이므로 국제적인 규범이 필요하다. 따라서 AI 윤리와 규제 문제를 다루기 위해서는 이제 개별 국가 차원을 넘어 국제협력 프레임워크를 구체적으로 구상해야 할 때이다. 그러나 아직은 기후변화에 관한 정부간 협의체(IPCC)처럼 AI를 어떻게 규제할지 논의하고 결정하는 국제적인 전문집단이 아직은 없다. AI의 순기능은 살리면서도 예상되는 사회적 문제점은 제도로 보완하기 위한 국제적인 논의는 이제 시작 단계에 있다.
인간중심의 인공지능 활용을 위한 노력 필요
AI 안전 인·검증 체계개발 협력이 중요하다. AI 안전성 인·검증 기업, 표준기관, 규제기관, 정부가 참여하는 AI 안전 생태계 육성을 추진해야겠다. 또한 지속적인 AI 법제 개선과제를 발굴하고, AI 시스템 또는 서비스 실패에 따른 책임소재를 명확화할 필요가 있다. AI 모델의 책임 있는 사용과 평가에 대한 표준화가 부족하면, AI 기술의 안정성과 신뢰성을 확보하는 데 중요한 장애물이 될 수 있으므로 글로벌 표준화 국제협력도 중요한 과제이다.
AI의 혁신과 규제는 ‘양날의 검’이다. 어떻게 쓰느냐에 따라 이로울 수도 있고, 해로울 수도 있다. 불합리한 규제는 영국의 ‘Red Flag Act’처럼 혁신의 걸림돌로 작용하여 국가경쟁력에 치명적인 악영향을 줄 수 있다. 그러므로, AI 윤리와 규제 문제를 제대로 다루기 위해서는 높은 수준의 전략과 통찰력이 전제되어야 한다. AI 윤리와 혁신을 둘러싼 찬반 공방 속에서도 공통된 견해는 결국 AI로의 대전환 흐름은 멈출 수 없고, 혁신은 계속되어야 한다는 점이다. 이를 위해 제도 및 기술 대안을 구체화해서 논의해 경험에 기반을 둔 사회자산으로 축적함으로써, 우리 사회 전체가 이를 공유하고 환류하려는 거시차원의 노력과 인내심이 지금 우리 모두에게 필요하다.
-
# 장면 1 : Her 사람들이 타인보다는 AI 스피커와 정서적 교감을 나누며 의지하는 모습
-
# 장면 2 : iRobot 인간보다 똑똑하고 강력한 AI 로봇이 인간을 공격하는 모습
-
# 장면 3 : 트랜센던스 죽은 사람의 뇌를 컴퓨터에 업로드시키고, 인터넷과 연결되어 초월적인 능력을 갖게 되는 장면
-
# 장면 4 : 원더랜드 사망, 혼수상태인 사람을 AI로 복원해 영상전화 서비스를 제공하는 장면