상단영역

본문영역

'AI 속이는 공격자 AI' 개발... 공주대 최대선 교수

약간의 얼굴 분장으로 다른 사람 얼굴로 인식하게 만들어

이 기사를 공유합니다
공격자 AI가 알려준 위치에 점을 붙인 결과 얼굴인식 AI가 전혀 다른 사람으로 인식했다. .(출처=공주대)

[e경제뉴스 임명재 기자] 충남 공주대는 의료정보학과 최대선 교수가 얼굴에 몇 개의 점을 붙여 얼굴 인식 AI가 다른 사람으로 인식하게 만드는 데 성공했다고 15일 밝혔다. 즉 공격자 AI를 개발한 것이다.

연구 팀이 개발한 공격자 AI는 얼굴 사진을 입력하면 얼굴에 붙일 점의 위치를 알려준다. ( 해당위치에 스티커를 붙이면 얼굴인식 AI는 전혀 만들어주고 점을 붙일 위치를 알려준다.)

공격자 AI가 알려준 대로 얼굴에 점 스티커를 붙이면 얼굴 인식 AI는 전혀 다른 사람으로 인식하게 된다.

보안 분야에서는 이미지나 보이스에 약간의 변형을 가해 딥러닝 AI를 속일 수 있는 기만 공격이 가능한 것으로 알려져있다.

이번 연구는 이미지 상태가 아닌 실제 얼굴에 약간의 분장을 통해 얼굴인식 AI를 기만할 수 있는 것을 보여준다.

해외에서 표지판에 스티커를 붙여 오인식하게 만드는 연구가 소개된 바 있지만 얼굴 분장을 통한 얼굴인식 AI를 기만하는 사례는 공주대가 최초다.

최 교수는 "기만 공격 이외에도 AI의 오동작을 유발하거나 학습에 사용된 데이터를 추출, 프라이버시를 침해하는 등 여러 가지 AI 보안 취약점이 알려져 있다"며 "최근 AI에 대한 국가적 관심과 산업계의 적용이 활발한 가운데 AI 보안 문제에 대해서도 심각성을 인식, 대비해야 한다"고 말했다.

저작권자 © SDG뉴스 무단전재 및 재배포 금지

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

지속가능경제