카카오, AI 안전성 검증 위한 가드레일 모델 ‘Kanana Safeguard’ 공개... 생태계 활성화 위해 국내 기업 최초 오픈소스로 배포

  • 박현아
  • 발행 2025-05-27 14:49
카카오의 Kanana Safeguard 모델의 동작 원리 설명
- 생성형 AI 안전성, 신뢰성 검증 가능한 AI 가드레일 모델 개발... 허깅페이스 통해 총 3종 모델 오픈소스로 공개
- 자체 개발 언어모델 ‘Kanana’ 기반 기술로 활용, 한국어 특화 성능 보유
- 상업적 이용 가능한 라이선스 적용, 안전한 AI 생태계 구축 위해 기여할 것


카카오가 안전하고 신뢰할 수 있는 생성형 AI 기술 환경 및 생태계 조성에 나선다.

카카오는 AI 서비스의 안전성과 신뢰성을 검증할 수 있는 AI 가드레일 모델 ‘Kanana Safeguard(카나나 세이프가드)’를 개발하고, 생태계에 기여하기 위해 국내 기업 최초로 총 3종의 모델을 오픈소스로 공개한다고 밝혔다.

최근 다양한 생성형 AI 서비스들이 확산되는 가운데 유해 콘텐츠의 위험성에 대한 사회적 우려가 증대되고 있다. 카카오는 이에 대한 기술적·제도적 장치인 AI 가드레일 시스템 마련에 대한 필요성을 인식하고 ‘Kanana Safeguard’ 모델을 개발하게 됐다. 주요 빅테크에서는 생성형 AI를 통해 발생할 수 있는 위험 요소를 감지하는데 특화된 모델을 운영 중이다.

‘Kanana Safeguard’는 카카오가 자체 개발한 언어모델 ‘Kanana’를 기반 기술로 활용했으며, 한국어 및 한국 문화를 반영한 자체 구축 데이터셋을 활용해 한국어에 특화된 성능을 보유하고 있다. AI 모델의 정밀도와 재현율을 평가하는 수치인 F1 스코어(F1-Score)를 기준으로 평가한 결과, 한국어 성능에서 글로벌 모델 이상의 성과를 기록하기도 했다.

이번에 오픈소스로 공개한 모델은 총 3가지로, 각각의 모델은 리스크 유형에 따라 유해성 및 위험성에 대한 효과적 탐지가 가능하다. ▲사용자의 발화 또는 AI의 답변에서 증오, 괴롭힘, 성적 콘텐츠 등에 대한 유해성을 탐지하는 ‘Kanana Safeguard’ ▲개인 정보나 지식재산권 등 법적 측면에서 주의가 필요한 요청을 탐지하는 ‘Kanana Safeguard-Siren’ ▲AI 서비스를 악용하려는 사용자의 공격을 탐지하는 ‘Kanana Safeguard-Prompt’이며, 모두 허깅페이스(Hugging Face)를 통해 다운로드 할 수 있다.

카카오는 안전한 AI 생태계의 구축에 기여하고자 ‘Kanana Safeguard’에 상업적 이용과 수정 및 재배포 등이 자유롭게 가능한 아파치2.0(Apache 2.0) 라이선스를 적용했다. 향후 지속적인 업데이트를 통해 모델을 고도화 할 예정이다.

카카오 김경훈 AI Safety 리더는 “생성형 AI의 등장 이래, 기술의 발전과 더불어 AI 윤리와 안전성에 대한 중요성이 국내외에서 점차 부각되고 있다”며 “책임감 있는 AI 구축에 대한 인식을 널리 확산시키고, 사회적 가치를 고려한 기술 개발이 이어질 수 있도록 선제적인 대응을 이어갈 계획”이라고 말했다.

<저작권자 ⓒ 더뉴스프라임, 무단 전재 및 재배포 금지>

박현아 기자 다른기사보기