본문 바로가기
[ESG Letter] 가치알랩

2023.04.04 ESG in TECH: 생성형 인공지능, 그 어두운 단면 (by 니니)

by 보안세상 2023. 7. 18.

안녕하세요, 니니입니다.


이젠 남녀노소 다 그 이름을 안다는 ChatGPT, 이미 많은 분들이 써 보셨겠죠? ChatGPT 등 생성형 인공지능이 가져올 혁신에 대해선 이미 많이 들어 보셨을 것 같은데요, 오늘은 우리가 생성형 인공지능을 더욱 책임감 있게 쓰기 위해 고민해봐야 할 지점에 대해 이야기해보도록 하겠습니다.

 

‘가짜’를 만들어드립니다

 

​​​​​​​이미 많은 이들이 우려했듯 ‘생성형AI’의 ‘생성하는 능력’은 쉽게 악용될 수 있습니다. ‘그럴싸한’ 문장과 이미지를 만들어내기 때문에 이를 활용해 가짜 뉴스를 만들어 사회적인 혼란을 야기하거나, 심지어는 사기와 사이버 위협 등에 악용할 가능성도 제기되었습니다. 특히 ‘딥 페이크(Deepfake)’로 말미암은 혼란은 이미 도래해 있는 듯 합니다. 최근 논란이 된 대표적인 사례 두 가지를 살펴보겠습니다.

 

여기, 하얀 패딩을 입은 프란치스코 교황의 사진이 있습니다.

(출처: 레딧  https://www.reddit.com/r/midjourney/comments/120vhdc/the_pope_drip/)

 ‘교황이 이렇게 패셔너블했나?’라고 생각하셨다면 교황의 손을 봐주시기 바랍니다. 뭔가 어색하죠? 이 사진은 이미지 생성 AI인 미드저니(MidJourney)로 만들어진 이미지로, 얼마 전 레딧(Reddit)이라는 온라인 포럼에 올라왔습니다. 이 사진이 트위터에 올라오자 사람들은 의심없이 ‘패셔너블한 교황’의 존재를 믿어버리기도 했습니다. (참고 기사 링크)

(출처: Eliot Higgins 트위터  https://twitter.com/EliotHiggins/status/1637928223848767492?s=20)
 

하지만, 이러한 가짜 이미지는 애교에 불과합니다. 때론 정치적, 사회적 혼란을 야기할 수도 있는 가짜 이미지도 있기 때문이죠. 도널드 트럼프 전 미국 대통령이 체포되는 위 사진도 (예상하셨겠지만) 가짜입니다. 최근 트럼프 대통령이 기소가 된 적은 있었으나 실제로 체포된 적은 없었는데요, 이 이미지 역시 미드저니가 만들어낸 작품입니다. 온라인 탐사보도 매체 ‘벨링켓(Bellingcat)’의 창업자 엘리엇 히긴스(Eliot Higgins)가 이미지를 트위터에 올리면서 많은 이들이 실제로 트럼프의 체포를 믿는 해프닝이 벌어지기도 했습니다.

 

이처럼 이른바 딥페이크 기술이 보편화하고 있는 상황에서 정부의 규제가 필요하다는 이야기가 나오고 있죠. 이에 더해 AI기업 역시 기술 악용을 최대한 방지할 수 있는 방안을 마련해야 하며, 언론 또한 섣불리 기사를 쓰기보단 팩트체크에 심혈을 기울여야 한다는 목소리가 높아지고 있습니다.

 

 

‘정제된 인공지능’의 뒷면

(출처: adobe stock)

인공지능의 또 다른 맹점 중 하나는 인간의 편견과 혐오를 그대로 반영할 수 있다는 건데요. 이와 관련해 기업과 정부가 기울이는 노력은 이전 ESG in Tech에서도 말씀드린 바 있습니다. AI 기업에서도 유해하거나 편향된 데이터를 제거하기 위해 많은 노력을 기울이고 있지만, 이 과정에서 투입된 저임금 노동자의 노동권에 대한 이슈가 불거지고 있습니다.

 

아시다시피 ChatGPT 등 생성형 인공지능은 인터넷에 있는 수많은 데이터를 긁어모아 학습합니다. 그러나 인터넷에는 인간의 가장 어두운 모습까지도 올라와 있기에, 이를 학습한 생성형 인공지능은 종종 인간의 혐오와 편견을 콘텐츠에 반영하기도 합니다.

 

하지만 학습할 데이터를 걸러내는 데에는 많은 비용과 시간이 드는데요, 타임지의 보도에 따르면 오픈AI는 이 상황을 타개하기 위해 외주 업체를 섭외해 아프리카 케냐의 저임금 노동자를 ‘데이터 분류가(Data Labeler)’로 고용했다고 합니다. 이들의 임무는 인공지능 모델이 학습할 데이터 중 ‘유해한’ 데이터만을 골라내는 것입니다. 이 유해 데이터를 인공지능에게 따로 학습시켜 자체 필터링 기능을 갖추게 하는 게 궁극적인 목표죠.

 

문제는 데이터 분류가들이 지속적으로 유해한 데이터에 노출될 수밖에 없다는 건데요, 욕설은 물론이고 아동을 대상으로 한 성적 학대나 살인, 자살 등에 대한 자세한 상황 묘사 등을 접하게 됩니다. 가장 날 것의 콘텐츠를 마주해야 하는 만큼 데이터 분류가들은 외상 후 스트레스 장애(PTSD) 등을 정신적인 고통을 호소합니다. 이들을 고용한 외주사는 전문 상담가를 고용해 정신상담을 지속적으로 제공한다고 합니다. 그러나, 이처럼 정신적인 고통을 수반하는 업무가 개발도상국의 저임금 노동자들에게 집중되고 있으며, 정작 이들은 인공지능 열풍에선 소외되고 있다는 현실은 기술 발전의 어두운 한 면이라고 볼 수 있습니다.

 

 

지난 몇 달 간 인공지능이 불러올 장밋빛 미래에 대해 이야기했다면 이제는 우리가 어떻게 이 도구를 책임감 있게 쓸 것이고, 발전시켜 나갈 것인가에 대한 논의가 필요해 보입니다. 인공지능 기업이라면 자신들이 개발한 도구(제품)가 세상에 미칠 영향에 대해 연구하고, 악영향은 최소화하기 위해 노력하는 등 ‘사회적 책임(Social Responsibility)’에 대해 생각해봐야 합니다. 뿐만 아니라 인공지능의 결과물을 활용하게 될 소셜미디어, 언론사, 그리고 일반 사용자들까지 여러 주체들 또한 자신의 행위가 사회에 미치게 될 영향에 대해 고민해봐야 할 시점이 아닌가 싶습니다.