믿을 만한 사람은 어떤 사람인가? 철학적, 도덕적인 정의는 잘 모르겠지만, 아마도 다른 사람과의 관계에서 말과 행동이 일치하는 일관성 있는 사람, 사람을 대할 때 악의가 없어 경계 없이 응대할 수 있는 사람이 믿을 만한 사람에 속한다고 하겠다.
얼마 전 출장을 가 대여했던 자동차를 이용할 때 차선 유지, 앞·뒤차와의 간격 유지 등의 운전 보조 기능을 편리하게 사용했던 적이 있다. 요즈음은 AI를 접목한 여러 가지 제품, 서비스들을 일상에서 예전보다 많이 접하게 된다. 이제 AI와 더불어 사는 세상이 다가오고 있다.
그럼, 사람이 사람을 신뢰하듯이 AI도 신뢰할 수 있을까? 컴퓨터는 0과 1로 구성돼 흑백이 분명하다고 생각되지만, AI는 우리가 이해할 수 없는 회색 영역이 존재한다. 즉, AI를 학습시키고 그 결과를 활용할 때, 학습 과정상의 실수에 의해 상식의 범주를 벗어나는 결과를 내게 된다. 스캐터랩의 AI 챗봇 ‘이루다’가 혐오 발언, 성희롱 발언 등의 물의를 일으켰던 사건들이 그 사례다.
AI에게 의도적인 오류를 유발시키는 방법 또한 존재한다. 사람이 보기에는 인지할 수 없으나, AI가 이미지를 인식하는 과정에 오류를 일으키는 노이즈를 의도적으로 이미지에 삽입해 전혀 다른 객체로 인지하게 하는 AI 공격기술이 있다. 이런 공격을 당하게 되면 AI는 특정 객체를 인식하지 못하게 돼 오동작을 일으키게 된다. 예를 들어 자율주행 자동차가 장애물을 인식하지 못하게 되는 것이다.
이런 AI의 문제점들을 해결하기 위해, AI에 대한 공격 인지 및 방어 기술에 대한 많은 연구가 진행되고 있고, AI의 신뢰성과 도덕성에 대한 기술적, 사회적인 많은 활동이 전개되고 있다. AI의 신뢰성에 대한 기술 표준도 제정하고 있다.
AI는 사람에 의해 이루어지고, 사람이 이용한다. AI에 대한 악의적인 접근은 기술적으로 해결할 수 있는 문제가 아니다. 결국, 콩 심은 데 콩 나듯이 믿을 만한 사람이 믿을 만한 AI를 만들게 된다. 그러니 우리도 앞으로 나올 신뢰할 만한 AI의 주인이 되기 위해서, 신뢰할 만한 사람, 더 나아가 신뢰할 만한 사회가 되기 위한 노력을 해야 한다. 물론, 믿을만한 AI의 믿을만한 주인이 되기 위해서만은 아니겠지만 말이다.
한민규(IT융합공학부) 교수