요즘 GPT나 Claude로 검색하는 게 네이버보다 편해졌습니다. 근데 쓰다 보면 한 가지 찜찜한 구석이 있습니다. 제가 듣고 싶은 답만 골라서 준다는 느낌이 들 때가 있거든요. 2024년 9월, 미국 DARPA는 이런 문제를 정면으로 다루는 프로그램을 발표했습니다. 바로 CODORD인데요, AI가 법과 윤리를 제대로 이해하고 판단하게 만드는 게 목표라고 합니다.
AI 편향과 신뢰성, 이미 미국은 대책 마련 중

DARPA가 발표한 CODORD는 Human-AI Communications for Deontic Reasoning Devops의 약자입니다. 여기서 Deontic이라는 단어가 핵심인데요, 철학 용어로 '의무, 허가, 금지'를 다루는 논리를 뜻합니다. 쉽게 말하면 '이건 해도 되는지, 해야 하는지, 하면 안 되는지'를 따지는 겁니다.
지금까지 AI는 참과 거짓 같은 1차원적 사실 판단은 잘했습니다. 하지만 '법적으로 허용되는지', '윤리적으로 적절한지', '계약 위반은 없는지' 같은 당위성 판단은 약했습니다. CODORD는 바로 이 부분을 강화하려는 시도입니다. 사람이 자연어로 말하거나 쓴 규칙을 AI가 이해할 수 있는 논리 언어로 자동 변환하는 게 핵심 기술입니다.
제가 AI를 계속 쓰면서 느낀 불안감이 딱 이 지점이었습니다. 2024년 말쯤 한국에서도 LLM 개발 필요성을 외치는 기사들이 쏟아졌는데요, 동시에 기존 AI 모델들의 편향 문제를 지적하는 목소리도 컸습니다. 미국은 이미 그때부터 대책을 준비하고 있었던 겁니다.
프로그램 매니저인 Benjamin Grosof는 현재 방식의 문제점을 명확히 짚었습니다. 지금은 전문가가 규칙을 하나하나 논리 언어로 번역해야 해서 시간도 오래 걸리고 비용도 많이 듭니다. 이걸 '지식 저작 병목'이라고 부르는데, CODORD는 바로 이 병목을 제거하는 게 목표입니다. 규정이나 법령이 바뀔 때마다 새로 말하거나 문서를 업로드하면 AI가 자동으로 업데이트하는 식입니다.
군사 작전부터 금융까지, 활용 범위는 광범위

이 기술이 실제로 구현되면 쓸모가 엄청납니다. 미 해병대 Robert Gerbracht 대령은 지휘관 의도 전달 과정을 예로 들었습니다. 지휘관이 작전 명령을 내릴 때 AI가 그 의도를 윤리적·법적 기준에 맞춰 정확히 전달할 수 있어야 한다는 겁니다. 특히 피곤하거나 여러 일을 동시에 처리할 때 AI가 보조하되, 명령이 왜곡되지 않고 말단 병사까지 이해 가능한 형태로 전달되어야 합니다.
솔직히 이 부분이 제일 흥미로웠습니다. 금융권에서는 이미 비슷한 시도가 있었다고 합니다. 은행 규정을 논리 언어로 번역해서 AI에 학습시킨 뒤, 특정 거래가 법적으로 허용되는지 물어보면 AI가 답을 내놓는 겁니다. 게다가 단순히 '가능' 또는 '불가능'만 말하는 게 아니라, 어떤 규정 조항을 근거로 그런 판단을 내렸는지 자연어로 설명까지 해줍니다. 논리 전문가가 아닌 일반 직원도 AI 답변을 검토할 수 있는 겁니다.
CODORD가 개발되면 활용 범위는 군사 작전 계획, 자율 시스템, 공급망 관리, 계약, 의료 가이드, 정보 분석 등으로 확대됩니다. 규정이 자주 바뀌는 분야일수록 효과가 클 겁니다. 계약서나 법령이 개정될 때마다 전문가를 투입해 재작업하는 대신, 문서만 업로드하면 AI가 알아서 업데이트하는 식이니까요.
제 경험상 AI는 지금도 꽤 똑똑하지만, 미묘한 규칙이나 예외 상황에서는 헷갈립니다. 법적 판단이나 윤리적 결정은 더욱 그렇고요. CODORD 같은 기술이 상용화되면, AI를 정말 중요한 결정에 보조 수단으로 쓸 수 있을 것 같습니다. 다만 완전히 맡기기보다는 사람이 최종 검토하는 구조는 당분간 유지되겠죠.
이 기술이 본격화되면 AI 신뢰성 논란도 어느 정도 잠잠해질 가능성이 있습니다. 지금은 AI가 왜 그런 답을 냈는지 설명이 부족해서 불안한데, CODORD 방식이라면 논리적 근거를 함께 제시하니까요. 다만 2024년 10월 8일 제안자의 날이 예정되어 있고, 본격 공고는 몇 주 뒤 나온다고 하니 아직 초기 단계입니다. 실제 결과물이 나오려면 시간이 좀 걸릴 겁니다.
참고: https://www.darpa.mil/news/2024/teaching-ai
기사: https://dailyan.com/news/article.html?no=734875
[데일리연합 (SNSJTV)] AI 개발의 윤리적 문제점 심화: 초거대 언어 모델의 편향성 논란 확대
데일리연합 (SNSJTV. 타임즈M) 박해리 기자 | 최근 초거대 언어 모델(LLM)의 발전과 함께 AI 개발의 윤리적 문제점이 심화되고 있다. 특히, LLM이 학습 데이터의 편향성을 반영하여 차별적이거나 혐오
www.dailyan.com