□ 제안 취지 및 주요 쟁점
인공지능(AI) 핵심기술을 확보하기 위해서 IT기업만 아니라 정부도 공공분야의 인공지능 개발 프로젝트를 추진하고 있다. 인공지능 발전은 전례 없는 비용 절감과 경제적 유용성을 가져다 줄 것으로 보인다. 그런데 인공지능의 진보로 인하여 생겨난 변화가 어떤 사회적 영향을 끼치는 것일까? 민주주의, 윤리, 가치 기준 등 사회적 영향을 논의할 필요가 있다. 인공지능이 생활에 밀접한 플랫폼이 되어 확산되고 있지만 인간 사회는 인간의 활동에 대한 책임과 권한부여 맞추어져 있다. 인공지능 플랫폼을 장악한 소수의 ICT 기업들에 의해서 모든 세상만사가 자동적으로 판단되는 시스템에서는 인간이 단순히 판단의 대상으로 전락해 버리므로 미래 사회는 암울한 방향으로 전개 될 수 있다. 인공지능이 면접에서 구직자 선택에 활용되고 개인 비서를 대체하고 자율주행자동차의 판단 시스템에 활용되고 자동적으로 기사를 쓰기도 한다. 인간과 인공지능 간의 상호보완적 협력은 인간 노동의 질을 높이고 창의적 일에만 집중할 수 있다. 그러나 노동 및 전문성을 대체하는 인공지능이 인간의 가치 기준, 민주주의, 인간의 윤리를 충분히 이해하는가는 의문이다. 점차 인공지능의 자동화된 판단은 사회제도에 사용되고 있다. 우리는 인공지능 테크놀로지의 유용성에 열광하면서도 정작 그 불완전성과 편향적 판단에 대한 통 방법은 확보하지 못하고 있다. 미래 사회에서 인공지능의 능력은 인간의 경험과 전문성을 뛰어넘을 것으로 전망되지만 인간 사회에서 축적되어 온 가치기준을 제대로 고려하지 못하거나 무지하므로 불가피하게 부정합(不整合)이 생겨나게 된다. 그 원인은 머신러닝과 딥러닝의 개발자들이 인간의 상식, 사회 규범이나 윤리적 코드를 기계적 언어로 바꾸는 데 실패하고 있기 때문이다. 인공지능의 자동화된 판단에 의하여 사회적 배제와 차별이 발생한다면 민주주의, 공평성, 사회적 정의, 차별 금지 등의 원칙은 쉽게 무시되지 않을까? 그렇다면 사회적 제도적 대응 방안은 무엇이며 윤리적 인공지능을 개발할 수 있는 안, 기술적 가이드라인은 무엇일까?