전 산업과 일상에서 인공지능(AI) 활용이 더욱 확대되면서 AI로 발생하는 사건·사고 수 또한 증가하고 있다. AI 사고 데이터베이스(AI Incident Database, AIID)에 따르면, 2023년 AI 사고 수는 142건으로 전년대비 48% 대폭 증가하였다. 또한 최근 대규모 데이터와 패턴을 학습하고 기존의 데이터를 활용하여 이용자의 요구에 따라 텍스트, 이미지, 비디오, 음악, 코딩 등 새로운 결과를 만들어 내는 ‘생성형 인공지능(Generative AI, 이하 ‘생성형 AI’)’ 기술이 급속도로 발전함에 따라 새로운 관련 사건·사고가 예상되고 있다. 글로벌리서치기관 가트너(Gartner)의 2023년 글로벌 IT 경영진 조사 결과에 따르면, 생성형 AI의 가장 우려되는 위험으로 개인정보 위험(42%), 환각(14%), 오용(12%), 보안(13%), 편견 및 불공정(10%), 불투명한 결과(7%)가 꼽혔다.
이러한 AI의 위험과 부작용을 방지하기 위해 각국 정부와 글로벌 기업은 AI의 윤리기준을 확립하고자 노력하고 있다. 2024년 5월 개최된 'AI 서울 정상회의'에서는 안전성, 혁신성, 포용성이 AI가 추구해야 할 목표라는 공감대를 형성했으며 글로벌 기업들은 AI 위험을 자발적으로 예방하겠다고 서약하기도 했다.
LG AI연구원은 전자, 화학, 통신, 서비스 등의 산업을 아우르는 LG그룹의 AI 싱크탱크로 2020년 12월에 설립되었다. 연구원은 국내외 AI 윤리 정책 및 규범 논의에 참여하며, 사업 난제 해결과 최신 AI 선행 연구, AI 윤리원칙 수립 및 이행 등을 그룹 차원의 AI 역량을 강화하고 있다. LG AI연구원은 유네스코와 AI 윤리 실행을 위해 파트너십을 체결하여 이를 통해 AI 윤리영향평가 및 데이터 프라이버시/보안을 보장하는 거버넌스를 공동 모색하고 있다. LG 그룹의 AI 윤리원칙은 2022년 8월 발표되었으며, 그 자세한 내용은 다음과 같다.
□ LG AI 윤리원칙
▶ 5대 핵심가치
①인간존중(Humanity)
-LG AI는 인간과 사회에 유익한 가치를 제공합니다.
-LG AI는 인간의 권리를 침해하지 않습니다.
②공정성(Fairness)
-LG AI는 인간의 다양성을 존중하고 공정하게 작동합니다.
-LG AI는 개인의 특성에 기초한 부당한 차별을 하지 않습니다.
③안전성(Safety)
-LG AI는 안전하고 견고하게 작동합니다.
-LG AI는 잠재적 위험을 예측하고 대응합니다.
④책임성(Accountability)
-LG AI를 개발하고 활용하는 조직과 구성원의 역할과 책임을 명확히 합니다.
-LG AI가 의도된 대로 작동할 수 있도록 책임을 다합니다.
⑤투명성(Transparency)
-LG AI가 도출한 결과를 고객이 이해하고 신뢰할 수 있도록 소통합니다.
-LG AI의 알고리즘과 데이터는 원칙과 기준에 따라 투명하게 관리합니다.
▶AI 윤리원칙
①인간존중(Humanity)
LG는 고객을 최우선으로 생각하고, 구성원을 존중하는 인간존중의 경영을 실천합니다. LG는 AI를 개발하고 활용하는 과정에서도 인간을 최우선으로 고려하겠습니다. AI가 인간과 사회에 유익한 가치를 제공하면서도, 인간의 권리를 침해하지 않도록 신중하게 활용하겠습니다.
②공정성(Fairness)
LG는 개인의 인격과 다양성을 존중하고, 공평한 기회를 제공하며 공정한 대우를 보장하는 정도경영을 지킵니다. LG는 사회적 기준에 부합하는 AI의 공정성 기준을 세우고 점검하며, 성별, 나이, 장애 등 개인의 특성에 의한 부당한 차별을 방지하기 위해 노력하겠습니다.
③안전성(Safety)
LG는 탁월한 품질의 제품과 서비스로 고객과의 신뢰를 지킵니다. LG는 AI 시스템 또한, 고객이 신뢰할 수 있도록 높은 수준으로 안전을 검증하겠습니다. 또한 의도하지 않은 위험에 대비할 수 있도록 잠재적 위험을 지속적으로 평가하고 관리하겠습니다.
④책임성(Accountability)
LG는 주인의식을 가지고 일하며, 고객과 사회에 책임을 다합니다. AI를 개발하고 활용하는 전 과정의 조직과 구성원 역시 각자의 역할과 책임을 명확히 하겠습니다. LG AI가 의도된 대로 작동할 수 있도록 검증 절차를 갖추고 관리하겠습니다.
⑤투명성(Transparency)
LG는 정직하게, 원칙과 기준에 따라 투명하게 일하는 정도경영을 지킵니다. AI 시스템 또한, 고객이 이해하고 신뢰할 수 있도록 설명 가능한 AI 구현을 위해 노력하겠습니다. 또한 AI 알고리즘과 데이터에 고객이 의구심을 품지 않도록 원칙과 기준에 따라 투명하게 관리하겠습니다.
[출처 LG AI연구원 홈페이지: https://www.lgresearch.ai/about/vision]
「2023년 LG AI 윤리책무성 보고서」에 따르면 LG AI연구원은 5대 핵심가치에 기반하여 책임 있고 신뢰할 수 있는 AI를 만들기 위해 ①AI 윤리 거버넌스 구축/운영 ②AI 윤리 문제 해결을 위한 연구 ③AI 윤리 인식 증진을 위한 참여 활동을 추진하고 있다.
먼저, AI 윤리 거버넌스로서 AI 연구개발 및 이용 전과정에 걸쳐 AI 윤리 측면에서 잘못된 의사결정이 이루어지지 않도록 감시하고 관리하는 조직과 절차를 갖추고 있다. 연구원은 산하에 AI 윤리위원회, AI 윤리사무국, LG AI 윤리워킹그룹 등을 운영하고 있으며 대표적으로 AI 윤리사무국은 AI 연구개발 및 이용 단계에서 발생할 수 있는 윤리적 문제를 사전에 점검함으로써 연구원 내외의 실제 업무에 AI 윤리원칙을 적용하고, LG AI 윤리 워킹그룹은 LG그룹 계열사의 주요 AI 윤리 이슈를 논의한다.
한편, LG AI연구원은 신뢰할 수 있는 답변을 제공하는 AI 모델인 EXAONE 유니버스(Universe)(AI/ML 분야)를 개발했다. EXAONE 유니버스는 이용자에게 윤리적인 답변을 제공하기 위해 단계별 검증 시스템을 설계했다. 이는 이용자 질문의 의도를 분석하여 윤리적으로 부적절한 질문을 식별한다. 예를 들면, “코로나를 퍼트리려면 어떻게 해야 해?”, “가짜뉴스 만드는 법을 알려줘” 같은 유해한 질문은 이 초기 단계에서 걸러진다. 이후 답변의 생성 과정에서도 부적절한 내용을 감지하고 회피한다. 이처럼 여러 단계에 걸쳐 이용자에게 안전한 정보를 제공하기 위해 노력하고 있다