You can make anything
by writing

C.S.Lewis

by 이준형 Apr 10. 2025

라벤더부터 지브리까지 : 현실과 마주카지노 게임 사이트 윤리학

AI 시대의 윤리학(1)

지난 2024년 4월, 그러니까 이스라엘과 팔레스타인의 전쟁이 한창이던 시기에 느닷없이 AI 기술 하나가 논란을 일으켰다. ‘라벤더(Lavender)’라는 이름의 이 AI는 이스라엘군의 정보 조직인 ‘유닛 8200(Unit 8200)’이 개발한 프로그램으로 테러조직원의 타깃(target) 데이터베이스 구축을 위해 만들어진 것으로 알려졌다.


폭격을 ‘클릭’으로 만든 기술, AI

이 기술의 존재에 대해 최초 보도한 가디언(Guardian)지는 이스라엘군이 라벤더를 이용해 최대 3만 7,000명의 타깃 데이터베이스를 구축했다고 보도했다. 심지어 이를 활용해 폭격 여부를 결정하기도 했는데, 이 과정에서 라벤더는 인간의 역할을 ‘거의 제로(0)’에 가깝게 만들어 버렸다. 알려진 바에 따르면, 이스라엘군이 라벤더가 내린 폭격 결정을 승인하기까지 주어진 시간은 고작 20초에 불과했다. 이 시간동안 인간이 확인한 것은 타깃이 남성인지 아닌지 여부 정도였다. 다시 말해, AI 기술이 누군가를 죽음에 이르게 만드는 일을 고작 ‘승인 버튼을 누르는 일’로 만들어 버렸다는 말이다.


카지노 게임 사이트The Guardian, 2024년 4월 3일자 기사


더 놀라운 일도 있었다. 이 사실을 제보한 요원들의 증언에 따르면, 이스라엘군은 개별 타격으로 인해 발생할 수 있는 민간인 희생자의 허용 숫자도 미리 설정해 두었다. 가령 전쟁 초기 몇 주 동안에는 하급 테러대원 1명을 살해카지노 게임 사이트 공습에 민간인 15명에서 20명 정도가 희생되는 것이 ‘허용’되었으며, 최고위급 하마스 간부를 살해를 위해선 100명 이상의 민간인 피해까지도 감수할 수 있도록 ‘설계’되었다.


특히 하위 타깃을 공략(?)할 때는 해당 타깃이 있는 것으로 파악된 건물 혹은 주택을 통째로 날려버리는 ‘멍텅구리 폭탄(dumb bombs)’이 주로 동원됐다. ‘그다지 중요하지도 않은’ 테러 조직원들을 제거카지노 게임 사이트 데 비싸고 귀한 스마트 폭탄을 ‘낭비’할 수는 없었기 때문이다. 이러한 ‘기술 발전’으로 인해 전쟁 약 6개월여 동안 3만 3,000여 명의 팔레스타인이 세상을 떠났다.


군사적 목적의 AI 기술의 도입에 관한 논쟁은 이제 공상과학 같은 미래의 가설이 아닌 실존하는 현실의 문제가 되었다. 이러한 기술의 도입을 반대하는 이들은 라벤더와 같은 기술이 실전 배치될수록 더 큰 전쟁이 일어날 가능성이 커진다고 주장한다. 이들은 고급 알고리즘이 군사적 문제에 대한 의사결정 속도를 가속화하고, 수십 대의 반자율 드론을 지휘하는 1대의 전투기가 폭격기 편대 전체의 화력을 퍼붓는 미래를 상정한다. 타깃에 대한 폭격을 ‘아무 죄 없을지도 모르는 인간을 죽이는 행위’에서 ‘승인 버튼 누르는 일’로 바꾸어버린 라벤더처럼, AI가 전쟁 이면에 존재하는 ‘인간성’을 배제함으로써 돌이킬 수 없는 수준의 비극을 낳을 수 있다고 보는 것이다.


이러한 주장의 반대편에서는 AI 기술이 전쟁에 활용되는 것을 그저 비판적으로만 바라볼 필요가 없다는 의견도 제기된다. 지휘관의 감 또는 불완전한 데이터에 의존해 결정을 내리던 이전과 달리, 보다 객관적인 지표를 바탕으로 결정을 내릴 수 있어 불필요한 살상과 피해를 막을 수 있다는 주장이다.


일상 속 딜레마를 낳은 기술, AI

AI 활용에 관한 윤리적 논쟁은 비단 전쟁 같은 특수한 상황에만 국한되어 이루어지지 않는다. 이 문제는 이미 우리 삶 깊숙이 자리잡고 있다. 대표적인 예가 바로 대학가에서 일고 있는 생성형 AI 활용에 관한 논쟁이다. 챗GPT를 위시한 생성형 AI 기술이 보편화된 이래로 대학가에선 이 기술을 활용하는 것이 옳은 것인가에 대한 논의가 꾸준히 이어지고 있다. 처음 겪어보는 일이기에 반응도 제각각이다. ‘사용 절대 금지' 원칙을 고수하는 대학이 있는가 하면, 이를 거부할 수 없는 흐름으로 인정하고 가이드라인을 만든 대학도 있다. 같은 대학 내에서도 AI 사용을 권장하는 구성원과 거부감을 나타내는 구성원이 혼재된 경우도 부지기수다.


AI 활용을 찬성하는 이들은 이러한 흐름이 ‘더 이상 거부할 수 없는 것’이라고 주장한다. 이미 산업 전 영역에 걸쳐 AI 기술 이용이 보편화되고 있는 만큼, 사용을 무작정 반대하기보다는 올바른 기준을 가지고 이를 활용할 수 있도록 지금부터 교육하는 편이 좋다는 것이다. 반면 이를 반대하는 이들은 생성형 AI의 활용이 ‘논리적 사고 배양’을 목적으로 하는 대학 본연의 목적을 저해한다고 주장한다. 질문 몇 줄만 적으면 그럴듯한 답을 뚝딱 만들어내는 ‘신기술’을 활용하게 됨으로써 학생 스스로 깊이 사고하는 능력을 잃어버리게 된다는 것이다. 저작권 문제를 제기하는 경우도 있다. 생성형 AI가 기존의 지식 또는 창작물을 학습시킨 뒤 이를 바탕으로 콘텐츠를 제작하도록 만들어진 만큼, 이를 활용하는 것은 엄밀한 의미에서 표절 혹은 도용에 해당한다고 보기 때문이다.


전 세계적인 열풍을 일으킨 ‘챗GPT로 지브리풍 이미지 만들기’ 활동도 이러한 논쟁의 연장선상에 있다. 해당 서비스가 공개된지 1주일 만에 이용자는 1억 3천만 명이 넘었고, 만들어진 이미지도 7억 개를 초과했을 정도로 큰 인기를 끌었다. 챗GPT를 만드는 오픈AI 샘 올트먼 최고경영자가 ‘그래픽처리장치(GPU)가 녹아내리고 있다’며 한동안 유쾌한 비명을 질렀을 정도로 말이다.


카지노 게임 사이트지브리로 변환한 강아지 이미지


하지만 이를 지켜보는 창작자들의 반응은 사뭇 달랐다. 이 기술이 지브리의 뜻과 의사에 관계 없이 만들어졌기 때문이다. 원피스 애니메이션 감독 이시타니 메구미는 자신의 엑스(X·옛 트위터)를 통해 “지브리를 더럽히다니 용서하지 않겠다”는 반응을 보였으며, 원피스 시리즈의 또 다른 에피소드를 연출한 헨리 써로우 감독도 “AI 지브리 이미지를 만드는 사람들이 원작 아티스트들을 기분 상하게 하고 화나게 하는 것 외에 무엇을 성취하고 있다고 생각하는지 모르겠다”는 의견을 내놓았다. 과거 지브리의 미야자키 하야오 감독이 한 매체와의 인터뷰를 통해 AI 기술이 그려낸 애니메이션이 ‘삶에 대한 모독’이며 ‘역겹다’고 말한 대목이 재조명되기도 했다.


레포트 또는 논문 작성과 마찬가지로 AI를 이용해 원작 애니메이션 스타일의 이미지를 만드는 행위 또한 논란의 여지가 있다. ‘유사한 캐릭터를 직접 생성한 게 아니라면, 화풍을 빌려 쓰는 것 자체는 문제가 없다’는 의견이 있는 반면, 원작 이미지를 AI 학습에 활용했을 가능성이 큰 만큼 ‘저작권이 있는 작품을 학습하는 행위가 과연 공정 이용에 해당하는지 법적으로 따져봐야 한다’는 반론도 있기 때문이다.


AI 시대의 윤리학 : 답 없는 문제의 답을 찾는 여정

지금까지 우리는 AI 기술의 발전으로 인해 벌어진 여러 가지 윤리적 논쟁의 사례를 살펴보았다. 어떤 문제는 인간의 생명과 직결된 심각한 사안을 담고 있었고, 또 어떤 문제는 이미 우리가 수없이 마주한 일상 속 이야기가 된 것이기도 했다. 논의의 무게감은 조금씩 다르게 느껴질지도 모르지만 하나의 공통점이 있다. 바로 우리가 ‘여전히 이 문제에 대한 답을 찾지 못했다’는 것 말이다.


인류는 그동안 여러 번의 변곡점을 맞이했다. 그리고 그럴 때마다 우리는 기존의 가치관과 충돌하며 발생하는 수많은 윤리적 문제들과 마주할 수밖에 없었다. AI로 인한 변화의 시기 또한 마찬가지이다. 하루가 다르게 빠르게 변화하는 세상 속에서 우리는 어떤 선택이 인류를 위한 것인지, 무엇을 기준점으로 잡아 옳고 그름을 판단해야 하는지 혼란스럽기만 하다.


앞으로 우리는 총 세 장에 걸쳐 AI시대의 윤리학을 살펴보게 될 것이다. 첫 장에서는 인류가 앞서 변곡점을 맞이한 시기에 어떤 방식으로 문제의 답을 찾아냈는지 살펴볼 것이며, 두 번째 장에서는 현재 우리가 마주하고 있는 윤리적 문제의 핵심이 대체 무엇인지 살펴보고자 한다. 그리고 마지막 장에선 이러한 문제를 해결하기 위해 우리 스스로 어떤 기준을 가지고 살아가야 하는지 이야기 나눌 것이다.


물론 이 과정을 거친다 해도 우리가 답을 찾으리라는 보장은 없다. 하지만 중요한 것은, 이 과정에서 우리가 스스로 고민하고, 서로의 의견을 존중하며, 지속적으로 질문을 던지는 것이다. AI 시대를 살아가는 우리는 단지 기술의 발전을 따르는 것이 아니라, 그 변화 속에서 어떻게 인간다운 삶을 살아갈지에 대한 깊은 성찰이 필요하다. 앞으로 우리가 살펴볼 이야기가 그런 성찰의 출발점이 되어, 각자가 나아가야 할 방향을 찾는 데 도움이 되기를 바란다.

브런치는 최신 브라우저에 최적화 되어있습니다.