책과 논문

고학수, <AI는 차별을 인간에게서 배운다>

밭 벼 2022. 9. 25. 16:06

고학수, 21세기 북스, 2022, <AI는 차별을 인간에게서 배운다> 

 

AI는 차별을 인간에게서 배운다

서가명강 22권. 한국인공지능법학회장과 서울대 인공지능정책 이니셔티브 공동디렉터를 맡고 있는 서울대학교 법학전문대학원 고학수 교수가 쓴 책으로, 새로운 기술이 우리 사회에 미치는 영

www.aladin.co.kr

 

믿고 보는 서가명강 시리즈. 어떤 분야든지 '입문'에는 서가명강이다. 게다가 믿고 보는 고학수 교수님. 책은 인공지능 윤리 이슈를 빠르고 폭넓게 훑는 데 탁월하다. 특정 이슈에 대해서 생각을 심화하고 싶다면, 휘리릭 읽고 다음 단계로 넘어갈 것을 추천. 

 

입문서인 만큼 다양한 이슈들이 적절한 설명과 함께 정리되어 있다. 다음은 책을 읽으면서 떠올랐던 몇 가지 지점. 

 

  • 알고리즘을 공개한다고 해도 학습 데이터까지 함께 공개되지 않으면 알고리즘의 효과를 알기 어려우며, 설령 학습 데이터까지 함께 공개한다고 해도 그것을 이해할 수 있는 사람은 극소수에 불과하다. 우리가 이야기하는 투명성은 (저작권 문제 등은 차치한다고 해도) 알고리즘과 학습 데이터의 공개를 의미하는 것에 그쳐서는 안 된다. 그렇다면 우리는 무엇을 요구해야 하는가. 설명가능성? 설명은 누구의 시선에서 이루어져야 하는가?

 

  • 흔히 인공지능의 학습은 아기의 학습 과정에 유비된다. 그러나 인공지능은 어디까지나 기술일 뿐. 학습 과정은 인공지능이 아닌, 학습을 주도하는 주체인 기업에게 초점을 맞추어야 한다. 인공지능은 다만 주어진 데이터를 충실하게 반영할 뿐이며, 어떤 데이터를 어떻게 학습시켜야 하는가에 대한 '실질적인 학습'은 배후에 있는 인간(기업)이 하고 있기 때문. 마찬가지로 인공지능에게 법인격을 부여할 것인가 하는 논의는 아직 시기상조다. 인공지능에게 인격이 있는가, 인공지능에게 법인격을 부여해야 하는가 하는 질문은 논의를 흐릴 뿐이다. 잊지 말자. 논의의 핵심은 인공지능을 생산한 법인에게 어떤 책임을 물을 것인가에 있다.

 

  • 최근 생성모델 업계의 트렌드를 보면, '우리의 알고리즘이 어떤 차별의 효과를 가지고 올지 현재로서는 잘 알지 못하겠으니 여러분이 신의를 갖고 잘 사용해주시기를 바란다. 그리고 차별을 발견하게 되면 우리에게 알려달라'는 적절한 우려를 섞은 공지와 함께 서비스를 공개하는 게 유행인 듯하다. 이러한 관행(유행)은 기업이 치러야할 비용을 이용자에게 전가하는 것과 무엇이 다른가.

 

정리하자면 이런 거다. 차별적 인공지능이 등장했을 때 우리는 누구에게 책임을 물을 것인가. 알 수 없는 블랙박스를 거쳐 차별적인 결과를 도출해낸 인공지능? 완곡한 경고 문구를 통해 차별 위험성을 알렸음에도 불구하고 부주의하게 서비스를 활용한 사용자? 우리가 도달할 답은 명확한데, 기업은 자꾸 변죽을 울리며 논점을 흐리는 느낌이랄까. 

 


 

  • p. 140. ...인공지능의 제일 일반적이고 중요한 용도는 데이터를 분류해내는 것이다. 이때의 분류는, 예를 들어 다양한 특징을 보이는 데이터가 있을 때 이를 몇 개의 그룹으로 나누어 판단하는 것을 의미한다. 그리고 이같은 분류는 그룹별로 차등적 결과가 나타날 수 있음을 암시하는 것이기도 하다. 

 

  • p. 234. 인간은 생각과 판단의 과정이 매우 불투명하고 이를 업데이트 하는 과정 또한 불투명하다. 그에 비해 인공지능은 편향으로부터 인간보다 자유롭고, 주어진 데이터를 충실하게 반영하는 업데이트 또한 가능하다.

 

  • p. 152. 다만 알고리즘과 데이터를 모두 공개하는 수준의 투명성은 아니더라도 인공지능의 대강의 구조나 작동방식에 대해 파악하는 것 자체는 어렵지 않을 수 있다. 인공지능 모형이 어떤 목적 함수나 최적화를 염두에 두고 만들어진 것인지, 어떤 유형의 알고리즘을 이용했는지, 또 학습용 데이터는 어떤 구조와 내용을 가진 것인지 등을 통해서 적어도 개괄적인 얼개는 파악할 수 있는 것이다.