top of page

​행사 안내

ELSI 센터 행사 안내 게시판입니다

2024 인공지능 ELSI 심포지움

최종 수정일: 5월 12일


서울대학교 AI연구원 인공지능 ELSI 연구센터는 “인공지능 모델의 편향과 리스크: 문제와 대응”을 주제로 다음과 같이 심포지움을 개최합니다. 인공지능 기술의 급속한 발달로 인해, 편향과 차별, 개인정보 유출이나 저작권 침해, 오용의 가능성 등 다양한 기술적 위험이 제기되고 있습니다. 이번 행사에서는 이러한 인공지능 모형의 현실적, 잠재적 위험을 진단하고 이에 대응하기 위한 여러 논의들을 공학적, 윤리적, 법적 관점에서 검토합니다. 이를 통해, 인류에게 이득이 되는 방식으로 인공지능을 개발하기 위해 어떠한 다학제적 노력이 필요한지 생각해 보고자 합니다. 많은 관심과 참여 바랍니다. 


일시: 2024년 12월 4일 (수) 오후 3-6시

장소: 인문대 신양관 302호 국제회의실


발표 1. 김재은 (솔트룩스) 생성 AI 사회·윤리 향상을 위한 다학제적 접근: 솔트룩스 컨소시엄의 연구성과와 과제


  • 생성 AI의 급속한 발전 및 서비스 분야에서 활용 확대에 따라 생성 AI의 사회·윤리 고려의 중요성이 점점 증대되고 있다. 이를 위해 Meta와 NVIDIA는 생성 AI 사회·윤리 보장을 위한 시스템을 개발했으나 능동적인 대응이 어렵고 문화적 다양성과 특수성을 충분히 반영하지 못하는 한계가 존재한다. 솔트룩스 컨소시엄은 이러한 한계를 해결하기 위해 다학제 전문가들과 함께 유기적이고 협력적인 사회·윤리 대응 방안을 연구 중이다. 이번 심포지엄에서는 솔트룩스 컨소시엄이 수행 중인 과학기술정보통신부 차세대생성AI기술개발 사업인 '사회적, 윤리적 학습을 위한 데이터 특성 및 생성 AI 모델의 윤리성 향상 연구'에 대해 소개하고 현재까지의 성과 및 향후 과제에 대해 공유 및 논의할 예정이다.



발표 2. 공유진 (서울대 철학과) 인공지능의 (불)공정성: 무엇이 문제이고, 왜 문제인가? 윤리적, 사회철학적 분석.


  • 최근 인공지능(AI)에 대한 높은 관심을 필두로, AI 시스템이 불공정하고 편향적일 수 있다는 사실에 대한 인식 또한 높아지고 있다. 예컨대 안면인식 모델은 여성보다 남성의 얼굴을, 유색인종보다 백인의 얼굴을 더 정확하게 인식하는 경향이 있다. 특히 유색인종 여성을 인식하는 정확도가 다른 집단에 비해 현저히 떨어져, AI가 인종 • 젠더 등 차별의 교차성(intersectionality)을 강화한다는 지적이 나온다. 편향성을 제거하고 '공정한' AI를 만드려는 연구가 몇 년 사이 크게 증가했지만, AI의 공정성을 구조적 사회부정의와의 관계 속에서 파악하는 연구는 극히 드물다. 본 강연에서는 AI의 공정성 (특히 교차적 공정성)을 해석하는 주된 방식이 가진 근본적 문제점들을 분석하고, '강한' 공정성 패러다임을 제안할 것이다. 강연의 후반부에서는 이처럼 AI를 공정하게 만드는 것이 '왜 중요한지'에 대한 윤리 이론들을 분석한다. 기존의 규범적 정당화는 주로 평등주의, 그 중에서도 기회균등을 중심으로 한 분배적 평등(distributive equality)을 바탕으로 이루어져 왔다. 그러나 발표자는 이러한 분배적 개념이 지나치게 제한적이라고 지적한다. 편향된 AI가 야기하는 보다 근본적인 윤리적 문제는, 모든 인간은 도덕적으로 동등한 가치를 지닌다는 관계적 평등(relational equality)을 침해하고 사회집단 간의 계층화를 심화시킨다는 데 있다. 이는 최근 ChatGPT, Gemini 등 언어 및 이미지 생성 모델의 편향 사례에서 더욱 분명하게 드러난다. 발표자는 분배적 • 관계적 평등 개념을 결합한 사회철학 모델을 AI 공정성을 위한 윤리적 틀로서 제시할 것이다.


발표 3. 박상철 (서울대 법학전문대학원) 범용/생성모델의 리스크와 통제


  • 2022년 말 이후 범용/생성모델 활용의 본격화는 전 분야에 충격을 가져오고 있으나, 인권이나 개인상해(personal injury)를 중심으로 한 기존 AI 활용 통제 논의의 재검토도 요하였다. 기존의 (주로 지도학습 기반) 분류기(classifier)의 경우 차별/불투명성 등 배분적 위해(allocative harm)와 고정관념 형성(stereotyping) 등 표상적 위해(representational harm)가 주요 문제였다면, 범용/생성모델의 경우 ("딥페이크" 등 합성매체(synthetic media) 문제와 더불어) 개인정보나 저작권 등의 침해(infringement) 위해와 생물학적 설계 도구(BDT)의 오용, 주요기반시설에 대한 보안 공격 활용 등 공공안전(public safety) 리스크가 핵심 사안으로 부각되었다. 미국의 AI 행정명령(E.O. 14110)과 (주지사의 거부권 행사로 폐기된) 캘리포니아 프론티어AI 안전법안(SB 1047)을 중심으로 범용/생성모델 통제론의 흐름과 한계, 전망을 살펴 본다.


주최: 서울대 AI연구원 인공지능 ELSI연구센터

후원: 한국연구재단

문의: 유하연 연구원 (hayeonyu@snu.ac.kr)

 
 
bottom of page