글=강민혜 기자 kang.minhye@joongang.co.kr, 사진=임익순(오픈스튜디오), 동행취재=노효은(경기도 와석초 6)·박윤정(서울 창경초 5)·박재원(경기도 화정초 4)·신유림(경기도 어정중 1)·양윤서(대전 목양초 4)·정해린(서울 경복초 5)·홍지수(경기도 상탄초 5) 학생기자
현실에선 어떨까요. 2018년 2월 카이스트는 한화시스템과 국방인공지능융합연구센터를 세웠습니다. 위험한 작업을 하거나 군인이 부족할 때 필요한 기술을 개발하는 곳인데요. 이른바 '킬러 로봇' 논란에 휘말리며 세계 30개국의 인공지능 전문가 50명이 향후 카이스트와는 연구를 하지 않겠다는 선언을 내놓은 바 있죠. 해외 인공지능 전문가들은 카이스트가 인공지능을 이용해 킬러 로봇 같은 살상 무기를 만들려 시도한다고 우려한 거예요. 카이스트는 이러한 우려에 대해 "카이스트는 대량 살상용 무기를 개발할 수도 없고 그런 기술을 개발하지도 않았다"고 해명했습니다. 해외에선 몇 년 안에 실제 전쟁 로봇 등이 나올 거라는 전망도 나온 바 있죠.
◇ 학생기자단이 생각하는 인공지능 상용화
◇ 전문가와 본 인공지능 상용화
A. 첫째, 인공지능에 대한 올바르지 않은 기계학습 훈련입니다. 둘째, 연구자와 사용자의 도덕성 결여입니다. 셋째, 경제적 논리가 인간의 권리보다 우위라는 겁니다. 기계학습은 인간의 손으로 직접 입력되는 데이터를 기반으로 해 연구자의 데이터에 대한 순수성이나 도덕성이 무엇보다 필요하다는 것을 짐작할 수 있습니다. 또, 알고리즘이 어떤 원칙을 근거로 판단을 내린 지에 대한 사실을 알 권리가 대개 그 기술을 소유한 사기업의 기술에 대한 비밀 유지의 권리보다 우위가 아니라는 문제도 있죠.
Q. 인공지능의 딥러닝 기술 관련해서 그 취합 과정에 문제가 있을 수 있다는 건가요.
A. 첫째, 무엇보다도 딥러닝의 예측 불가능성입니다. 자기 스스로 해답을 찾아 나가는 과정 중에 인간이 의도하지 않은 결과를 도출해낼 수 있기 때문이죠. 그것이 개인이나 사회에 혼란을 주는 결과라면 이는 매우 심각한 수준의 반생명적인 기술이 될 수 있습니다. 둘째, 딥러닝 기술은 기계가 자동화가 되고 자율적으로 되면서 초인공지능의 탄생을 가능하게 하면서 인간에게 해를 끼칠 가능성을 높일 수 있죠. 사용하기 따라 다르겠지만 말이에요.
A. 첫째, 인간에 대한 존중심을 갖추는 것입니다. 인간을 시장의 물건처럼 사고팔 수 있는 물질적으로 생각하거나 어떤 능력을 할 수 있는 기능적으로 생각하는 태도에서 탈피해야 합니다. 둘째, 원래 기술은 중립적이지만, 기술이 인간에게 위협이 되면 안 됩니다. 그러므로 기술을 개발하는 기업·국가는 연구하는 기술에 대한 책임의식을 가져야 합니다. 학생은 먼저 자신과 타인에 대한 존중심을 갖는 태도가 매우 중요하다고 봅니다. 두 번째는 자신의 자유에 대한 책임입니다. 자신이 선택한 것에 대한 자유와 이에 대한 책임은 쌍둥이라는 것을 항상 인식할 필요가 있습니다. 자유와 책임은 인간의 존엄성을 실현하기 위한 필수 조건입니다.
Q. 인공지능이 자율적으로 생각할 수 있을까요.
A. 현재 인공지능은 기계가 인간의 지식을 구현하는 수준에 따라 다음과 같은 세 가지 유형으로 구분합니다. 첫째, 약인공지능은 인간의 지식수준보다 낮은 단계입니다. 보통 가전기구의 청소기·시리 같은 것입니다. 둘째, 강인공지능으로 인간의 지능과 동일한 수준을 말하는 인공지능입니다. 이 단계의 인공지능은 인간처럼 자유로운 사고가 가능하여 자의식을 지니며, 사회적·윤리적·법적 문제 등도 함께 고려되어야 합니다. 셋째, 강인공지능이 더욱 발전하여 인간의 지능을 초월한 인공지능입니다. 이 단계는 인공지능이 스스로 진화하기 때문에 그 존재에 대해서 예측이 불가능합니다.
토론을 마치고 하 박사와 이야기를 나눈 뒤 인공지능 상용화에 대한 찬반 의견은 각자의 생각이 처음과 같았어요. 달라진 건 찬성 측 학생들의 경각심 정도였죠. “다른 데서 인공지능 관련 기사나 소식이 있으면 지나치지 않고 관심 있게 보고 안 좋은 로봇이 있으면 다른 데서 반대하려고 노력할 거예요.”(윤정) “신문이나 뉴스에서 자세히 관심 있게 보고 항상 조심해서 그걸 사고로 안 이어지게 노력해야 해요.”(지수) “인공지능이 마냥 좋다고 생각하기보다는 위험할 수 있으니 잘 생각하고 만일 위험하면 그걸 나중에 착하게 이용할 수 있게 노력하면 좋겠어요.” (해린)
아실로마 AI원칙
1) 연구 목표: 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발하는 것이다.
2) 연구비 지원: 인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 있어야 한다.
-어떻게 미래의 인공지능 시스템을 강력하게 만들어 오작동이나 해킹 피해 없이 우리가 원하는 대로 작업을 수행하도록 할 수 있나
-사람들의 자원과 목적을 유지하면서 자동화를 통해 우리 번영을 어떻게 성장시킬 수 있나
-인공지능과 보조를 맞추고 인공지능과 관련된 위험을 통제하기 위해, 보다 공정하고 효율적으로 법률 시스템을 개선할 수 있는 방법은 무엇인가
-인공지능은 어떤 가치를 갖추어야 하며, 어떤 법적 또는 윤리적인 자세를 가져야 하는가
3) 과학정책 연결: 인공지능 연구자와 정책 입안자 간 건설적이고 건전한 교류가 있어야 한다.
4) 연구문화: 인공지능 연구자와 개발자 간 협력·신뢰·투명성 문화를 조성해야 한다.
5) 경쟁 피하기: 인공지능 시스템 개발팀들은 안전기준에 대비해 부실한 개발을 피하고자 적극 협력해야 한다.
7) 장애 투명성: 인공지능 시스템이 손상을 일으키면 이유를 확인할 수 있어야 한다.
8) 사법적 투명성: 사법제도 결정에 있어 자율시스템이 사용된다면 권위 있는 인권기구가 감사할 경우 만족스러운 설명을 제공할 수 있어야 한다.
9) 책임: 고급 인공지능 시스템의 디자이너와 설계자는 인공지능의 사용, 오용 및 행동의 도덕적 영향에 관한 이해관계자이며 이에 따라 그 영향을 형성하는 책임과 기회를 가진다.
10) 가치관 정렬: 고도로 자율적인 인공지능 시스템은 작동하는 동안 그의 목표와 행동이 인간의 가치와 일치하도록 설계해야 한다.
11) 인간의 가치: 인공지능 시스템은 인간의 존엄성·권리·자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용해야 한다.
12) 개인정보 보호: 인공지능 시스템의 데이터를 분석 및 활용 능력 전제하에 사람들은 자신들이 생산한 데이터를 액세스·관리·통제할 수 있는 권리를 가져야 한다.
13) 자유와 개인정보: 개인정보에 관한 인공지능의 쓰임이 사람들의 실제 또는 인지된 자유를 부당하게 축소해서는 안 된다.
14) 공동이익: 인공지능 기술은 최대한 많은 사람에게 혜택을 주고 힘을 실어야 한다.
15) 공동번영: 인공지능에 의해 이루어진 경제적 번영은 인류의 모든 혜택을 위해 널리 공유해야 한다.
16) 인간의 통제력: 인간이 선택한 목표를 달성하기 위해 인간은 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.
18) 인공지능 무기 경쟁: 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.
19) 인공지능 능력에 관한 주의: 합의가 없으므로 향후 인공지능 능력의 상한치에 관한 굳은 전제는 피해야 한다.
20) 중요성: 고급 AI는 지구 생명의 역사에 심각한 변화를 가져올 수 있으므로 상응한 관심과 자원을 계획하고 관리해야 한다.
21) 위험: 인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실존적 위험에는, 예상된 영향에 맞는 계획 및 완화 노력이 뒷받침되어야 한다.
22) 재귀적 자기 개선: 인공지능 시스템이 재귀적 자기 복제나 자기 개선을 통하여 빠른 수적 또는 품질 증가를 초래한다면 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.
23) 공동의 선: 초지능은 널리 공유되는 윤리적 이상, 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발해야 한다.
학생기자단 취재 후기
노효은(파주 와석초 6) 학생기자
생각을 많이 했습니다. 과연 상용화가 된다면 어떤 점이 좋고 나쁠까 하는 생각이 많이 들었죠. 그래서 저의 선택은 상용화를 반대하겠다는 선택이었습니다. 인공지능 상용화에 대한 안 좋은 뉴스를 많이 보아서인지 나쁠 것 같다는 생각이 들어서죠. 하지만 이 자리에서 상용화가 결코 나쁘지 않다는 것을 깨달았습니다. 정말 나쁜 것은 사실 돈을 위해 악용하는 사람들이었죠. 물론 저의 생각은 아직 변함없지만 상용화를 조심히 이루게 된다면 나쁘지 않을 것 같다는 생각이 듭니다.
박윤정(서울 창경초 5) 학생기자
일단 오늘 찬성·반대 입장을 들어보니 찬성 입장에서 편리한 걸 우선할 수 있지만 반대 입장에서는 인공지능이 혼자 커져서 우리를 공격할 수 있다고 걱정하는 것도 이해해요. 그림이나 참고자료 조사할 때 인공지능이 많은 일을 할 수 있고 우리 생활에 깊이 침투한 걸 느꼈어요. 인공지능은 양날의 검 같아서 우리에게 이로운 것, 해로운 것 둘 다 준다는 걸 깨달았고요.
박재원(경기도 화정초 4) 학생기자
잘 몰랐던 인공지능에 대하여 박사님 말씀을 들으며 잘 배웠습니다. 취재도 취재지만 인공지능에 대해서 공부를 했습니다. 정말 뜻깊은 시간이었고 즐거웠습니다. 이런 취재가 있다면 또 하고 싶을 것 같습니다.
신유림(경기도 어정중 1) 학생기자
인공지능이 사람들에게 좋지 않은 영향을 준다는 생각이 더 많았는데 찬성 측의 의견을 들어보니 가까운 곳에서 빅스비처럼 편리한 삶을 살도록 돕는 인공지능이 많다는 것을 깨달았습니다. 많은 친구들의 다양한 의견을 들으니 인공지능의 상용화에 대해 다시 한번 생각해 볼 수 있어 좋았습니다. 처음엔 인공지능의 상용화에 대해 반대 측이었으나 이번 취재를 통해 잘 사용한다면 삶에 이로운 영향을 준다는 점을 배웠죠.
양윤서(대전 목양초 4) 학생기자
인공지능에 대해 좋은 점보다는 걱정되는 부분이 많았습니다. 인공지능이 인간을 닮아가다 결국 인간의 능력을 넘어서면 어쩌나, 인간을 지배하려고 하면 어떡하지 하고요. 하지만 오늘 토론 후 걱정보다는 친구 같은 생각이 더 들었습니다. 몸에 장애가 있거나 불편한 분들이 지금은 운전할 수가 없는데 자율주행차가 더 발전하면 이런 분들이 편하게 이동할 수 있게 됩니다. 인공지능을 사용하는 우리들의 마음이 더 중요한 것 같다고 생각했습니다.
정해린(서울 경복초 5) 학생기자
인공지능에 관심 있기는 했지만 크진 않았어요. 굳이 반대하는 입장에서 느끼지 않았는데 오늘 반대 측 입장 들어보니 맞는 것도 있고 위험할 것 같기도 하면서 이번 기회에 인공지능에 대해 더 잘 알고 조사하면서 기자님이 보내주신 자료로 목소리 딥러닝하는 걸 봤는데 재미있었어요. 인공지능이 더 위험하게 발전하면 지구가 멸망할지도 몰라요. 하지만 집에서 카카오미니를 잘 쓰고 있으니 똑똑하게 사용하면 도움되지 않을까요.
홍지수(경기도 상탄초 5) 학생기자
기자님이 보내주신 참고자료에서 딥러닝 결과물을 봤는데 놀랐어요. 신기했죠. 그림도 그리고 박사님과 공부하면서 인공지능에 대해 배워 좋았고 다음에도 인공지능 관련 기사가 있으면 주의 깊게 읽을 거예요. 기상캐스터 AI 있잖아요. 무슨 일이 생겨서 불참하는 캐스터 있으면 인공지능 쓰면 되니까 편리하다고 느꼈는데 토론해 보니까 반대하는 이유도 납득이 가긴 하더라고요. 우리가 주의하면 되겠어요.
글=강민혜 기자 kang.minhye@joongang.co.kr, 사진=임익순(오픈스튜디오), 동행취재=노효은(경기도 와석초 6)·박윤정(서울 창경초 5)·박재원(경기도 화정초 4)·신유림(경기도 어정중 1)·양윤서(대전 목양초 4)·정해린(서울 경복초 5)·홍지수(경기도 상탄초 5) 학생기자