2026-02-12
THINKFORBL COLUMN SERIES
[박지환의 AI 선긋기] AI 신뢰성, 우리가 ‘사람’을 믿어서는 안 되는 이유
더에이아이(THE AI)
 
인공지능(AI)을 둘러싼 사회적 논의가 최근 유난히 뒤엉켜 있다. 인류의 희망이었다가 저주가 되고, 미래 산업의 국력이라며 주가 견인과 거품 사이를 왔다 갔다 한다. 어제는 무조건 육성해야 할 대상이었고, 다시 오늘은 전방위적 규제가 필요하다고 말한다.

이런 혼란은 대부분 기본 개념이 정리되지 않은 채 논의가 과도하게 확장되기 때문이다. AI 문제에는 기술적 측면, 산업적 측면, 법과 제도의 측면, 문화적 측면 등이 복잡다단하게 얽혀 있는데, 같은 단어를 가지고 한쪽에서 기술을 이야기할 때 다른 쪽에서는 문화나 제도를 말하고, 심지어 인간성과 노동의 가치까지 들고 오니까 논의가 어지러워진다. 

이러한 모호성과 그리고 모호성으로 인한 혼란은 AI 신뢰성 분야에서 특히 심한 것 같다. 동일하게 ‘신뢰성’이라는 단어가 어떤 자리에서는 정보 보안을 뜻하고, 어떤 문맥에서는 안전을 의미한다. 개발자나 사용자의 책임 문제가 되기도 하고, 도덕적 덕목의 문제로까지 확장된다. 완전히 다른 개념들이 하나의 단어로 묶여 중구난방으로 이야기되면서, 논의가 이어질수록 신뢰성이라는 개념은 점점 더 이해하기 어려워진다. 

그것은 일상 언어에서 신뢰라는 말이 객관적 대상이 아니라, 특정한 주관적 감정을 의미하기 때문이다. 주관적 감정의 문제는 사회적 논의로 해결되기 쉽지 않다. 연인 사이의 “오빠 나 못 믿어?” 문제를 법원의 지침으로 정리하기 어려운 것과 마찬가지다. 문제는 AI 신뢰성 분야가 기업의 이익과 법 제도, 소비자 권익이 현실에서 부딪치는 냉정하고 객관적인 영역이라는 점이다. 이를테면 우리가 수억, 수십억 원짜리 부동산을 거래하러 중개소에 들어갔는데, 해당 물건이 믿을만한지에 대해 중개사가 “사장님 나 못 믿어?”를 시전한다면?

그렇기에 유럽연합(EU) 고위 전문가 그룹(HLEG)은 2019년 ‘Ethics Guidelines for Trustworthy AI’에서 ‘신뢰(Trust)’라는 표현 대신 일관되게 ‘신뢰할 만함(Trustworthy)’을 사용한다. 여기서 논의해야 하는 것이 신뢰라는 인간의 선택적 감정이 아니라, 사회가 수용하기 위한 객관적 근거임을 분명히 한 것이다. AI 신뢰성이란, 특정한 AI 상품 또는 서비스에 대해 개인이 믿고 싶은지를 묻는 게 아니라, 사회적으로 사용해도 되는 상태인가를 판단하는 논의여야 한다. 

중요한 점은 우리가 신뢰하는 대상이 AI 자체가 아니라는 것이다. 국제 문헌이 반복해서 강조하는 것은 AI를 둘러싼 거버넌스다. HLEG 문서에는 다음과 같은 문장이 등장한다. ‘We do not trust AI because of what it is, but because of the framework that governs it.’ 즉, AI를 믿는 이유는 AI가 어떤 존재기 때문이 아니라, 그것을 관리하는 프레임워크가 존재하기 때문이라는 뜻이다. 

우리가 수십 억짜리 부동산을 안심하고 거래할 수 있는 건 해당 물건이나 중개사의 눈이 선해서가 아니다. 등기부등본, 공인중개사 자격증, 임대차보호법 등과 같은 안전장치가 있기 때문이다. 특정 회사에 취직하거나, 회사가 특정 직원을 채용할 때도 마찬가지다. 해당 물건이나 회사·직원이 어떻게 만들어졌으며, 어떤 이력을 거치고 있는지, 혹시라도 문제가 발생하면 누가 어떤 방식으로 개입해서 책임질 수 있는지, AI 제품이나 서비스 역시 이러한 질문에 답할 수 있을 때만 진정으로 믿고 사용할 수 있다. AI 신뢰성 문제가 “오빠 나 못 믿어?”로 겉돌지 않으려면 논의를 이렇게 구체적인 질문과 대답으로 국한해야 한다. 

그리고 이러한 신뢰성은 결코 한 번의 시험이나 인증으로 확보될 수 없다. 한때 잘 지어졌던 건물도 이후 관리 여하에 따라 도저히 거래 못 할 물건이 돼 있을 수 있고, 특정 직원을 좋은 대학 나왔다는 이유만으로 언제까지나 신뢰할 수는 없는 것과 마찬가지다. 신뢰성은 공인될 수 있는 기준 하에 한 차례의 검증으로 완성되는 결과물이 아니라 지속적으로 관리되는 상태다. 국제 표준 문헌에서도 ‘신뢰할 만함’은 AI 생애주기 전반에 걸친 거버넌스 메커니즘을 통해 형성된다고 설명한다. 

요컨대 AI 신뢰성에 대해 유의미하게 논의하려면, 그것이 신뢰라는 감정의 문제가 아니라 신뢰를 가능케 하는 기술적·제도적 거버넌스에 대한 것임을 분명히 해야 한다. 그리고 이러한 거버넌스는 한 번의 검인증으로 완성되는 것이 아니라 지속적 유지 관리 시스템을 전제로 하는 것이어야 한다. 그래야만 신뢰라는 말의 감정적 무게에 짓눌리지 않은 채 문제에 대해 실제 적용이 가능한 해결책을 도출할 수 있다. 

이러한 점으로 이 칼럼 시리즈 제목이 ‘AI 선긋기’인 이유다. 거대한 길로 차들이 일제히 뛰쳐나오면 교통체증이 생길 수밖에 없다. 교통정리는 차선을 명확히 정하고, 신호체계를 이용해 각자가 지금 가야 하는 길의 범위를 최대한 좁히는 것이다. 기술, 제도, 경제, 문화와 도덕 담론이 어지럽게 얽히는 인공지능(AI) 분야에서 논의의 경계(선)를 분명히 함으로써 각자가 더 빨리, 더 정확하게 목적지에 도달하는 데 적게나마 한 힘을 보탤 수 있고자 한다.





[출처]​
- 관 기사 :
https://www.newstheai.com/news/articleView.html?idxno=20095

- 사
진 :
씽크포비엘

MAGAZINE LIST
 
2026-02-12
THINKFORBL COLUMN SERIES
[박지환의 AI 선긋기] AI 신뢰성, 우리가 ‘사람’을 믿어서는 안 되는 이유
더에이아이(THE AI)
 
We think for a better life.