어제까지 AI의 어두운 면을 보셨습니다. 오늘의 볼 거리에서는 어두운 면에 대비한 ‘회피기술’을 소개합니다.

1️⃣ 오늘의 볼 거리: 아래 링크를 보고 든 생각을 남겨주세요.

[저작권 관련]

[회피 기술]

Glaze

Glaze는 예술가들이 자신의 작품을 AI 모델이 무단으로 사용하지 못하게 보호하는 기술입니다. 이 기술은 스타일 전이 알고리즘을 활용하여 원본 이미지를 다른 스타일로 변형시켜, AI 모델이 원작의 스타일을 정확하게 모방하지 못하도록 합니다. 예술가의 작품에서 주요 스타일적 특징을 찾아내어 이를 교란시키는 방식으로, 원본 이미지를 육안으로는 거의 변형되지 않은 상태로 유지하면서도 AI 모델이 이를 제대로 학습하지 못하게 만듭니다. 이를 통해 AI 모델이 예술가의 고유한 스타일을 모방하는 것을 방지할 수 있습니다 (Glaze) (University of Chicago News).

Nightshade

Nightshade는 Glaze와 유사한 개념을 바탕으로 하되, 보다 적극적인 방식으로 AI 모델을 교란시키는 '데이터 중독' 기술입니다. 이 도구는 이미지를 미세하게 변형하여 AI 모델이 이를 잘못 학습하게 만들어, AI 모델이 생성하는 이미지의 품질을 떨어뜨립니다. 예를 들어, Nightshade는 AI 모델이 학습 데이터로부터 정확하지 않은 정보를 추출하게 하여, 결과적으로 AI 모델이 생성하는 이미지가 원래 의도와 다르게 나오도록 합니다. 이 기술은 특히 AI 모델이 대규모 데이터 세트를 활용하는 상황에서 효과적으로 작동합니다 (MIT Technology Review) (Enterprise Technology News and Analysis).

이 두 가지 도구는 모두 시카고 대학교 SAND Lab의 Ben Zhao 교수팀에 의해 개발되었으며, 예술가들이 자신의 작품을 보호하고 AI 모델의 무단 사용으로부터 벗어날 수 있도록 돕기 위해 만들어졌습니다. 더 자세한 내용은 Glaze 프로젝트 웹사이트에서 확인할 수 있습니다.

2️⃣ Krea 또는 Midjourney에서 ‘놀람(Surprise)’라는 단어를 시각화해보세요.