본문 바로가기 주메뉴 바로가기

HOME > 지역센터> 서울센터> 센터 새소식

센터 새소식

링크공유 프린트
‘약이 되는 인공지능, 독이 되는 딥페이크’ 특강 많이 궁금하시죠?
유하나 작성일 : 2024.03.21 조회 : 223

< 약이 되는 인공지능, 독이 되는 딥페이크 > 특강 내용 궁금하시죠?


AI 기술로 누구나 딥페이크와 가짜뉴스를 만들 수 있게 되면서 AI 윤리와 미디어리터러시 교육의 중요성이 커졌습니다.

서울시청자미디어센터는 중요한 시기인 만큼 딥페이크, 피싱 등 AI 악용으로 인한 가짜뉴스, 범죄사례들이 더욱 늘어날 것을 대비하여

시민을 대상으로 약이 되는 인공지능, 독이 되는 딥페이크라는 AI 윤리 리터러시 교육을 3차 진행하였습니다.

10월에는 서울 미디어리터러시 페스타에서 인공지능 윤리 영화제’, ‘생성형 AI의 올바른 실습 체험등 서울 시민과 함께 AI 윤리를 직접 체험하고 공유할 수 있는 프로그램들을 마련할 계획입니다.

특강에 오지 못한 분들께 <약이 되는 인공지능, 독이 되는 딥페이크> 특강 내용을 공유해드릴게요.

미디어교육 한지희 강사님의 후기로 좋은 정보 함께하시죠!


생성형 AI 이해와 윤리적 활용 교육 <약이 되는 인공지능, 독이 되는 딥페이크 특강> 후기


2023년 최대의 화제는 ChatGPT, 즉 생성형 AI였던 것 같습니다. 2024년에는 거의 모든 분야에서 다양하게 활용되어 더 큰 주목을 받을 것으로 전망하고 있습니다.

평소 인공지능에 관심이 많았기에 서울시청자미디어센터의 약이 되는 인공지능, 독이 되는 딥페이크특강에 참여하였고, 내용이 매우 유익하고 좋아서 여러분에게 수업 내용을 공유하려 합니다.



1.jpg

# 서울시청자미디어센터와 국제인공지능윤리협회 공동 기획 진행한 특강 교육 현장


[인공지능은 인간을 편리하게 해주기 위한 기술]

인공지능(Artificial Intelligence)은 사람의 두뇌를 흉내내어 컴퓨터로 구현한 지적능력 또는 인간의 능력을 그대로 구현하는, 즉 사람처럼 보고, 듣고 생각하고 판단하여 결정하는 컴퓨터의 능력을 말합니다. 사실 인공지능이란 용어는 1956년에 컴퓨터 과학자인 존매커시(John McCarthy)가 처음으로 창안한 것으로 기계가 지식을 가지고 스스로 학습하고 행동할 수 있어야 한다고 정의하였습니다. 그 후 인공지능이 발전하고 알파고의 등장으로 사람들에게 신선한 충격을 주었습니다. 이러한 기존의 인공지능이 예측과 분석에 그쳤다면, 생성형 AI는 기존에 없던 새로운 콘텐츠를 만들어 낸다는 측면에서 혁신적인 기술로 떠오르고 있습니다.

그림을 그린다? 어떤 콘텐츠를 만들어낸다?란 창작은 인간만이 가능한 영역이었는데, 기계가 인간의 창조 영역으로 들어서게 된 것입니다. 예전에는 프로그래머만 컴퓨터와 소통을 할 수 있었다면, 이제는 누구나 컴퓨터와 대화를 할 수 있게 되었습니다. 인류의 삶을 바꿔놓은 인터넷 혁명 이후로 생성형 AI는 인간에게 또 다른 기술적인 혁명을 안겨다 줄 것이라고 합니다.

예를 들어 인간과 공감하며 대화 하는 로봇은 영화 속에서만 볼 수 있었습니다. 하지만 챗GPT3가 적용된 이후로 인간의 감정에 공감하며 대화가 가능한 로봇을 영화가 아닌 현실에서 볼 수 있게 되었습니다. 이러한 생성형 AI가 다양한 산업(금융, 바이오, 엔터테인먼트 등)과 접목이 된다면 또 다른 가치를 창출해내고 기술을 만들어 내는 원동력이 될 수 있을 것입니다.

하지만, 꼭 기억하세요!

인공지능은 인간을 편리하게 해주기 위한 여러 가지 기술 중의 하나일 뿐입니다. 혹시나 인공지능이 대단하여 인간을 능가할 거로 생각할 수도 있을 것입니다. 하지만 인간은 인공지능과 계산 대결을 할 필요가 없습니다. 인공지능을 잘 통제해서 인간이 편리하고 행복한 방향으로 잘 사용하면 됩니다. 인간이 목적이 되어야 하고 인간이 가장 중요하다는 점을 꼭 기억하시길 바랍니다.


[다양한 생성형 AI의 활용]

생성형 인공지능의 종류가 다양해졌어요.

작문 생성 AI로는 챗GPT, Gemini, Llama 등이 있고, 기사 작성 및 번역, 고객상담 서비스 등에 사용되고 있습니다.

이미지 생성 AI인 미드저니, Stable Diffusion, Dall-e 등은 광고 제작, 가상현실, 웹툰 제작 등에 이용되고 있습니다.

영상생성 AI에는 Imagen Video, D-ID, Synthesia AI 등으로 교육, 마케팅 등의 영상을 생성할 수 있고, 음악 생성 AISuno, Voicemod, Soundraw, AIVA 등은 작곡, 더빙, 광고음악 제작 등에 활용하고 있습니다.

프롬프트라는 명령창에 원하는 내용을 입력하면 생성형 AI가 다양한 콘텐츠를 생성해주는데요. 가급적 원하는 바를 정확하게 쓰는 게 좋습니다. 예를 들어 푸른 용이 책을 보고 있는 그림을 원한다면 배경은 어떤 배경인지, 푸른 용의 크기는 어떤지 어디에서 책을 보는지 등을 자세하게 적는다면 상상한 이미지에 가까운 그림을 생성해줍니다.

우리가 작곡하기는 정말 어렵죠? 음악에 대해 알아야 하고 악기를 다룰 수 있어야 하고, 코드도 알아야 합니다.

하지만 걱정은 No! No!. 악보를 볼 줄 몰라도 음악을 몰라도 노래를 만들어줍니다. SunoAI의 프롬프트에 원하는 노래를 만들어달라고 적으면 1분 만에 뚝딱 만들어줍니다. “90년대 스타일의 K-pop발라드를 사랑이라는 주제로 노래 만들어줘!”라고 말하면 뚝딱 멋진 K-pop을 제작해줍니다. 물론 가끔 가사 내용이 매끄럽지 않을 수도 있고, 이상한 단어가 들어갈 수도 있습니다. 작문 생성 AI로 작사를 한 후 SunoAI의 프롬프트에 노랫말을 넣고 만들면 훨씬 완성도 높은 노래를 만들 수 있답니다.


[독이 되는 인공지능]

박효신이 부르는 [거리에서], 아이유가 부르는 [큐피드] 같이 요즘 AI 커버 송이 유행하는데요, 이것은 문제가 없을까요?”

아니요~ ”

[거리에서]라는 노래를 부르려면 원 작곡가 원저작자에게 허락받아야 합니다. 허락받지 않았으면 저작권법 위반입니다. , [거리에서] 노래를 박효신 목소리로 만들었으니 박효신에게 허락받아야 하는데, 안 받았다면 이 또한 음성권이라는 저작권법 위반이 됩니다. 이런 AI 커버 송은 엄밀히 따지면 저작권법 위반입니다.


2.jpg


3.jpg


음악뿐만 아니라 그림체 흉내 및 뉴스와 논문의 데이터 무단 수집으로 인한 저작권 위반은 생성형 AI의 윤리 문제로 대두되고 있습니다.

GAN(Generative Adversarial Network, 생성적 적대 신경망)은 진짜 같은 가짜를 생성해내는 기술로 우리는 딥페이크로 알고 있는 기술을 말합니다. 지인 얼굴에 음란물을 합성 후 유포하는 등의 성범죄나 유명인의 딥페이크를 사용하는 사기 범죄나 피싱범죄가 되기도 합니다. 휴대폰에 녹음 기능을 켜고 길을 물어보는 것처럼 일반인들의 목소리를 녹음한 후 AI에 목소리 학습을 시키면 AI가 녹음된 사람의 목소리 그대로 입력한 문장을 얘기하여 범죄에 악용되는 경우가 많습니다.

지금은 많이 좋아졌지만 할루시네이션(맥락과 관련 없거나 사실이 아닌 내용을 마치 옳은 답처럼 내놓는 현상)의 문제도 있습니다. 신사임당에 대해 알려달라고 하면 조선 제12대 왕인 선조의 어머니로 챗GPT가 안내한 예도 있었습니다. 신사임당에 대해 알고 있는 사람들은 잘못된 부분을 인지할 수 있지만 관련 지식이 없는 사람들에게는 잘못된 정보를 사실로 인지할 수 있기에 문제가 되는 것입니다. GPT는 정보검색보다는 추론적 생성을 더 잘해서 정보에 대한 오류가 생길 수 있습니다. 가급적 어떤 정보를 물어본 후 답변에 대해 다른 검색 사이트에서 찾아보는 등의 팩트체크하는 습관이 필요한 이유입니다.


4.jpg

5.jpg


GPT와 대화하다 보면 처음에는 기계인 것을 인지하고 대화를 시작하지만, 나중에는 사람처럼 의인화해서 대화하게 됩니다. 사람의 특징이 그렇다고 합니다. 그러다 보면 잘못된 종교나 정치적 신념을 챗GPT가 심어줄 수도 있습니다. 특히 미성년자들의 챗GPT 사용에 있어서는 사용 연령을 잘 지키고, 개인정보 사용에 조심할 수 있도록 교육해야 할 필요가 있습니다.

또한, AI는 편향성의 문제도 있습니다. 커피 들고 선글라스 쓴 여성을 그려달라고 하면 전부 백인 여성을 그려주고, 가판대에서 음식 파는 여성을 그려달라고 하면 전부 인도계 여성을 그려주는 등의 인터넷 속의 편향성을 그대로 가지고 있습니다. 인터넷 공간에서의 수많은 편향적인 데이터 및 인공지능을 만드는 사람들의 편향성으로 인공지능도 편향적으로 되는데 아직은 이런 것을 완벽하게 없앨 수가 없다고 합니다. 이러한 편향은 AI 응답의 신뢰도를 떨어뜨리고 잘못된 정보를 제공할 위험이 있다는 것을 시사합니다. 이러한 문제를 해결하는 방안으로는 지속적인 감시와 효과적인 규제, 전략 개발이 필요하다고 봅니다.

특강이 진행 된 내내 수강자들은 모두들 인공지능의 기능과 문제점들에 깊이 공감을 하면서 경청하였습니다. 생성형AI의 다양한 기능을 알았을 때는 ~”, “어쩜”, “대단해요등의 감탄사가 나왔고, 윤리적 문제점들에 대해서는 과의존 하지 말고 올바른 목적과 방법을 사용해야겠구나 하는 경각심을 일깨워 주었습니다.

인공지능을 만들고 사용하는 주체는 결국 인간입니다.


인간이 양심에 따라 바르게 만들고 바르게 사용하면, 인공지능 윤리와 안전 문제는 일어나지 않겠죠?

인간의 편리를 위해 만든 기술! 우리는 바른 사용으로 주체적이고 윤리적인 사용자가 되길 바라는 마음을 담아봅니다!




30대에서 60대까지 넓은 연령대 분들이 수강하였고 신기술에 대한 관심이 많은 분들이었습니다.

아래와 같이 후기 글을 남겨 주시는 등 좋은 평을 해주셨는데요~ 앞으로 유익한 특강으로 찾아 뵙겠습니다~~~


6.jpg

챗봇