2018-09-06l 조회수 5467
2017년 12월, 뉴욕시는 시에서 인공지능 알고리즘을 사용할 때 편향되지 않고 책임성 있는(accountable) 것만을 사용하겠다고 발표했고, 지난 5월에는 기존에 사용하는 알고리즘에서 편향이나 편견을 찾아내는 태스크포스를 발족시켰다. 최근 인공지능, 빅데이터, 로보틱스의 급속한 발전에 힘입어서 인간이 내리던 결정을 인공지능이 대신하는 일이 잦아지면서 인공지능 알고리즘이 인간의 편견을 그대로 반영해서 사회에 내재한 차별을 고착화하고 심지어 증폭한다는 비판이 제기되고 있다. 본 발표에서는 과학기술학(STS)의 방법론을 사용해서 이런 "알고리즘에 의한 차별"(algorithmic discrimination)에 대한 논쟁을 소개하고 분석해 볼 것이다.