AI로부터 아티스트를 보호하는 새로운 도구
홈페이지홈페이지 > 블로그 > AI로부터 아티스트를 보호하는 새로운 도구

AI로부터 아티스트를 보호하는 새로운 도구

Dec 23, 2023

예술의 완전성을 보존합니다.

AI 미술 도구의 등장은 인간 예술가의 작업을 중단시킬 위험이 있으며 많은 AI 모델은 동의 없이 인터넷에 있는 인간 예술가의 작업을 바탕으로 훈련됩니다. 그러나 AI 아트 도구를 속이려는 시도로 Glaze와 같은 도구가 개발되고 있습니다.

시카고 대학의 컴퓨터 과학자들이 개발한 Glaze는 기계 학습 알고리즘을 사용하여 AI 모델이 이미지를 이해하려는 시도를 방해하는 방식으로 예술 작품/이미지를 디지털 방식으로 숨기거나 숨깁니다.

예를 들어, 예술가는 Glaze를 통해 실행된 유화 이미지를 업로드할 수 있습니다. 이로 인해 AI 모델은 그림이 인간의 눈에는 분명히 유화임에도 불구하고 목탄 그림처럼 읽게 됩니다.

이 도구를 사용하면 아티스트는 작품의 디지털 이미지를 가져와 Glaze를 통해 실행할 수 있으며, "이제 이 작품이 인간이 보는 것과 AI 모델이 극적으로 다르게 보일 것이라는 확신을 가질 수 있습니다."라고 Ben Zhao 교수는 말했습니다. 시카고 대학의 컴퓨터 과학 박사이자 Glaze 프로젝트의 수석 연구원 중 한 명인 그는 CNN에 말했습니다.

Zhao에 따르면 Glaze의 첫 번째 프로토타입은 2023년 3월에 출시되었으며 이미 다운로드 수가 100만 건을 넘어섰습니다. 이 도구의 무료 버전도 이번 달 초에 출시되었습니다.

캘리포니아에 거주하는 아티스트 Jon Lam은 온라인에서 공유하는 자신의 작품의 모든 이미지에 Glaze를 사용한다고 밝혔습니다.

Lam은 "사람들이 우리의 고해상도 작업을 가져와서 우리가 일하는 동일한 공간에서 경쟁하는 기계에 공급하고 있다는 것을 알고 있습니다."라고 말했습니다. “그러므로 이제 우리는 좀 더 조심해야 하며 우리 자신을 보호할 방법을 생각해야 합니다.”

독일 슈투트가르트에 거주하는 시각 예술가인 Eveline Fröhlich는 AI 시대에 Glaze가 예술가를 보호하는 데 어떻게 도움이 되었는지에 대해서도 이야기했습니다.

Fröhlich는 “그것은 우리에게 반격할 수 있는 방법을 제공했습니다. 그 시점까지 우리 중 많은 사람들은 이 상황에서 너무 무력하다고 느꼈습니다. 왜냐하면 우리 자신을 이 상황으로부터 안전하게 지킬 수 있는 좋은 방법이 없었기 때문입니다. 제가 개인적으로 깨달은 첫 번째 사실은 '그렇습니다. 물러서야 할 이유가 있습니다'였습니다.”

Glaze는 오늘날 예술가들이 직면한 일부 AI 관련 문제에 도움이 될 수 있지만 Lam은 또한 기술 회사가 AI 교육을 위해 인터넷에서 데이터를 가져오는 방법을 규제하기 위해 더 많은 조치가 필요하다고 말합니다.

Lam은 “지금 우리는 예술가들이 탄광의 카나리아와 같은 역할을 하는 것을 보고 있습니다.”라고 말했습니다. "그러나 이는 실제로 모든 산업에 영향을 미칠 것입니다."

Zhao는 또한 Glaze를 출시한 이후 소설가, 음악가, 성우, 언론인 등 다른 분야로부터 자신의 분야에 맞는 Glaze 버전에 대해 문의하는 메시지가 쏟아졌다고 말했습니다.

AI 도구로부터 디지털 이미지를 보호하기 위한 또 다른 최신 도구는 PhotoGuard입니다. 이 도구는 MIT의 컴퓨터 과학 및 인공 지능 연구소의 연구원들과 함께 MIT의 연구원인 Hadi Salman이 만들었습니다.

Salman은 CNN과의 인터뷰에서 “우리는 딥페이크 시대에 있습니다. “이제 누구나 이미지와 비디오를 조작하여 사람들이 실제로 하지 않는 일을 하게 만들 수 있습니다.”

이 기술의 프로토타입은 AI 모델이 사진을 조작하거나 변경할 수 없도록 이미지 위에 눈에 보이지 않는 "면역화"를 적용합니다. PhotoGuard는 사람의 눈에 감지할 수 없는 방식으로 이미지의 픽셀을 조정하여 작동합니다. 이 도구의 목적은 사람들이 온라인에 업로드하는 사진을 AI 모델의 조작으로부터 보호하는 것입니다.

이 도구는 두 가지 다른 "공격" 방법을 사용하여 섭동을 생성합니다. 하나는 AI 모델에서 이미지의 잠재 표현을 표적으로 삼아 모델이 이미지를 임의의 개체로 인식하도록 하는 "인코더" 공격입니다. 두 번째는 대상 이미지를 정의하고 섭동을 최적화하여 이미지가 대상과 최대한 유사하게 만드는 "확산" 공격입니다.