블로그|Appier

언제쯤 ‘설명가능 인공지능(XAI)’을 실현할 수 있을까?

Written by Admin | Aug 25, 2018 4:00:00 PM

인공지능(AI)으로 인간이 기술과 교류하는 방식에 혁명이 일어나고 있다. 인공지능 덕분에 이미 일과 여행, 놀이, 그리고 삶의 방식이 바뀌었다. 하지만 이런 변화는 이제 시작에 불과하다. 인공지능이 나아가고 있는 다음 단계는 설명가능 인공지능(AXI)으로, 인간이 인공지능의 작용 과정을 훨씬 더 쉽게 이해할 수 있도록 발전된 형태다. 설명가능 인공지능은 무엇을 의미하며, 이것이 우리 인간에게 필요한 이유는 무엇일가? 또한 인간이 구축한 각종 산업계에서, 그 중에서도 특히 마케팅 업계에서 그 기능 양상을 어떻게 바꾸어 나갈 것인가?

블랙박스의 미스터리: 현재 인공지능이 지닌 문제점

인공지능이 이루어 내고 있는 놀라운 결과를 부정하는 사람은 없을 것이다. 단 몇 초 만에 방대한 양의 자료를 처리하는 것은 물론, 나아가 스스로 학습하고 결정을 내리고 액션을 취할 수 있는 컴퓨터는 다양한 산업 분야의 작동 방식을 근본적으로 바꾸어 놓았다. 세계적인 회계 컨설팅 기업 프라이스워터하우스쿠퍼스(PwC, PricewaterhouseCoopers)에 따르면, 인공지능의 시장 가치는 미화 15조 달러에 달한다. 하지만 현재의 인공지능은 그 형태에 큰 약점이 하나 있다. 그것은 바로 인공지능의 작용 과정을 사람들에게 명확하게 이해시킬 수 없다는 점이다. 즉, 인공지능은 자신의 결정과 액션을 인간에게 설명할 수 없다. 이 문제를 머신러닝의 “블랙박스(기능은 알지만 작동 원리를 이해할 수 없는 복잡한 기계 장치)”라고 부르기도 하는데, 어떻게 인공지능이 그러한 결정에 도달하게 되었는지에 대한 합리적인 근거나 그 계산 과정과 결정 과정도 장막에 가려져 있기 때문이다. 왜 이것이 문제가 될까? 바로 이 점 때문에 인간이 인공지능을 신뢰하지 못하고 그 작용 과정에 대한 의심을 거두지 못하기 때문이다. 설명가능 인공지능(XAI)은 이 문제를 해결해 줄 것이다.

설명가능 인공지능의 작용 방식

설명가능 인공지능(XAI)은 그 작용 과정이 훨씬 더 투명하다. 인간이 인공지능과 교류를 하는 과정에서 인공지능의 최종 결정과 행동 방향은 물론 해당 결론에 이르게 된 과정에 대해서도 데이터에 근거하여 파악할 수 있게 된다. 설명가능 인공지능은 높은 학습 성과 수준을 유지하면서도 이러한 기능을 구현할 수 있도록 하는 것을 목표로 한다. 오늘날의 인공지능(AI)은 머신러닝에 데이터를 투입하여 학습된 결과를 제공한다. 그 과정에서 사용자는 인공지능이 왜 어떤 액션은 취하고 어떤 액션은 취하지 않는지, 언제 성공하고 언제 실패하는지, 또는 어떻게 인공지능을 믿을 수 있고 그 오류를 바로잡을 방법은 무엇인지 등과 같은 많은 질문을 품게 된다. 이와 대조적으로 설명가능 인공지능(XAI)은 새로운 머신러닝 프로세스를 활용해 설명 가능한 인터페이스로 설명 가능한 모델을 만들어 내고, 그 결과 이 모든 질문에 대한 답을 제시할 수 있다. 하지만 여기에도 위험은 따른다. 인공지능이 내린 결론의 정확성은 그 결론에 도달하는 데 사용된 데이터의 품질과 직결된다는 점이다. 설명가능 인공지능(XAI)이 의사 결정의 신뢰도를 높이기는 하지만 그 데이터가 신뢰할 만한 것이 아닌 경우에는 그러한 신뢰 자체가 문제가 될 수 있다. 또 따른 문제는 인공지능이 스스로 내린 결정을 얼마나 잘 설명하느냐 하는 점이다. 기술적인 지식이 전혀 없는 비전문가가 사용자라면 그러한 설명은 의미가 없는 것이나 마찬가지일 것이기 때문이다.

위험, 신뢰 규제: 인간에게 설명가능 인공지능이 필요한 이유

이른바 군사, 금융, 자율주행자동차의 필수 안전 시스템 및 건강 관련 진단 결정 등과 같은 “많은 돈이 걸려 있는” 중요한 의사 결정은 위험 요인이 높다. 따라서 이들 경우에는 인공지능이 그 역량의 신용도와 신뢰성을 높이기 위해서라도 스스로 내린 결정에 대해 반드시 설명해 줄 필요가 있다. 설명가능 인공지능은 그 이외의 다른 산업에 종사하고 있는 기업들에게도 많은 도움을 줄 수 있다. 감사를 진행할 경우 설명가능 인공지능(XAI)은 완벽한 투명성을 보장할 수 있으므로 규제와 같은 문제에도 대처할 수 있다. 개별 결정이 도덕적으로, 사회적으로 그리고 재정적으로도 올바른 결정인 이유를 설명함으로써 모범 사례와 윤리 강령을 장려하여 사업의 신뢰도를 높이고, 이를 통해 주주들을 안심시키는 역할도 수행한다. 또한, 인공지능이 발전을 거듭할수록 혁신적인 용도와 새로운 능력을 갖추게 됨으로써 기업들이 자체 역량을 강화하여 스스로 혁신을 추진할 수 있게 될 것이다. 마케팅을 비롯한 여러 산업 분야에서 인공지능을 활용하는 것이 표준으로 정착될 시기가 곧 도래할 것이다. 따라서 사용자들은 자신감을 가지고 편안하게 이를 수행할 수 있도록 미리 준비해야 한다.

전문가들은 이렇게 되면 인공지능이 도구가 아닌 동료의 역할을 수행하게 되어, 특히 마케터들이 큰 혜택을 보게 될 것이라고 예상한다. 애피어의 최고데이터과학자인 쉬안 티엔 린(Hsuan-Tien Lin) 박사는 “인공지능(AI)을 신뢰할 수 있으려면 먼저 그 역할을 이해해야 한다. 알파고(AlphaGo)가 바둑에 대한 새로운 통찰력을 제시했듯이 설명가능 인공지능(XAI)도 마케터들에게 마케팅을 수행하는 방법에 관한 새로운 통찰력을 제공할 것이다. 예를 들면, 이미 인공지능을 통해 최적의 시기에 가장 전환 가능성이 높은 고객과 상호 작용을 할 수 있게 되었지만, 미래의 설명가능 인공지능(XAI)이 이러한 결정 과정에 대해 설명할 수 있게 되면, 마케터들이 고객을 더욱 깊이 이해하고 더 효과적인 마케팅 전략을 수립할 수 있게 될 것”이라고 말한다. 이것은 또한 새로운 작업 방식도 가능케 할 것이다. 즉, 설명가능 인공지능(XAI)이 제시하는 여러 제안들을 마케터가 수락하거나 거절함으로써 인공지능의 학습 자체에도 도움을 줄 수 있다. 애피어의 최고AI과학자인 손 민 박사는 “오늘날 설명이 불가능하다는 이유로 여러 훌륭한 제안들이 거절되고 있는데, 이는 사람들이 그 잠재 가능성을 간과하고 있기 때문”이라고 말한다. 하지만 머지않아 이 추세는 막을 내리게 될 것이다.

미국 국방성고등연구계획국(Defense Advanced Research Projects Agency)은 2021년까지 설명가능 인공지능(XAI) 프로그램을 가동하여, “ 인공지능(AI) 시스템이 만들어 낼 제3의 물결”을 실현할 것으로 예상한다. 그러면 기계가 근원적인 설명 모델을 구축할 수 있게 되어 현실 세계 현상들의 흐름과 운용 환경에 대한 이해를 기반으로 그 현상들을 더 잘 설명할 수 있게 될 것이다. 다른 전문가들 역시도 설명가능 인공지능이 3년 내지 5년 이내에 현실화될 것으로 예측하고 있다. 설명가능 인공지능(XAI)은 의심의 여지없이 신뢰, 확신 및 투명성을 높여 줄 인공지능(AI)의 다음 단계이다. 현명한 기업이라면 그 잠재력을 간과하는 우를 범하지 않을 것이다.