출판사로부터 도서를 제공받아 작성한 리뷰입니다
한때 전 세계가 딥페이크로 시끄러웠을 때가 있었습니다. 딥페이크를 이용한 범죄를 예방하기 위해 글로벌 기업들도 노력하고 있습니다.
2026년 1월 시행을 앞둔 인공지능기본법에도 딥페이크로 인한 범죄 피해를 예방하기 위한 규정이 포함되어 있습니다.
이 책 《당신은 AI를 어디까지 믿을 수 있나요?》는 AI를 이용한 범죄 유형을 소개합니다.
가까운 미래에 현실로 나타날 가능성이 높은 범죄 유형을 나누고 악용될 가능성을 탐구하면서 해결방법을 찾으려고 합니다.
AI 범죄가 발생하는 데 관심을 가져야 하는 이유는 오늘날처럼 인터넷이 중심인 세상에서 AI는 무척 힘이 세기 때문입니다.
생성형 AI는 수많은 데이터를 학습해 음악이나 이미지 등을 만들지만 결국 이 데이터는 누군가가 창작한 자산일 가능성이 높습니다.
AI 개발 회사들은 데이터를 확보하는 과정에서 저작권을 확인하고 저작자의 동의를 충분히 거치지 않을 때가 많습니다.
해외에서는 AI가 저작권을 침해했다는 이유로 소송이 빈번하게 발생하고 있습니다.
저작가가 자신의 저작권 침해를 입중하는 게 쉬운 일은 아닙니다. AI 모델이 만들어낸 이미지가 자신의 창작물과 유사하다는 사실을 인정받아야 합니다.
생성형 AI가 결과물을 만드는 과정이 정당하지 않으니 그 서비스를 이용하지 말자는 것은 아닙니다.
다만 이제는 AI 개발 회사들이 보이지 않는 곳에서 누군가의 창작물을 무단으로 사용하는게 아니라 충분한 동의를 구하고 저작권료를 지불해야 합니다.
외국의 유명인들의 얼굴을 이용한 가짜 뉴스가 증가하고 있습니다. 가짜 뉴스는 우리 주변에도 흔하게 들을 수 있습니다.
선거철이 되면 가짜 뉴스는 더욱 심해지고 상대 후보의 도덕성을 흠집 내는 내용이나 유명 인사가 특정 후보를 지지한다는 가짜 뉴스입니다.
가짜 뉴스는 다양한 맥락에서 사용되고 명예훼손죄, 허위사실공표죄, 업무방해죄 등의 죄명으로 처벌 받을 수 있습니다.
우리는 매일 새로운 뉴스를 접하게 되고 뉴스가 항상 진실된 것은 아닙니다. 사실 관계를 잘 파악해야 하고, 왜곡된 내용도 찾아야 합니다.
인터넷이 발달하면서 정보 전달 속도가 빨라지면서 가짜 뉴스로 이득을 보려는 사람들이 조금씩 생겨나기 시작합니다.
가짜 뉴스의 정보를 제대로 파악하고 확인하면서 그 내용이 사실인지 한 번 더 검토할 필요가 있습니다.