AI의 공정성을 서비스로 제공하는 AI를 도입해 나가는 데는 몇 가지 장애물이 있다. 그러므로 사례나 프로그램이 나오고 나서 검토하면 좋다고 생각할 수도 있다. 그러나 AI의 공정성은 불공정한 AI를 제공했다는 문제가 발각되고 나서 대응하면 늦고, 또한 신뢰 회복을 위한 노력도 상당히 필요하게 된다. 그러므로 인공지능(AI) 윤리는 예견적으로 발생가능한 문제들에 대한 관심에서 출발하고 있으며 심지어 아직 기술적으로 가능하지 못한 것까지도 고려하고 논의하는 경우들이 있다. 앞으로 AI 서비스의 제공을 검토하고자 하는 경우 AI의 공정성의 내용을 이해하고, 제공하려고 하는 AI가 공정한지의 여부를 우선 확인해 보는 것은 의의가 클 것이다.
AI의 공정성은 인공지능 시스템이 모든 사람들에 대해 공정하고 공평하게 작동하도록 보장하는 것을 의미한다. 이는 AI가 편견 없이 모든 이용자를 동등하게 다루고, 인종, 성별, 국적, 인종적 및 사회적 배경 등과 같은 특정 그룹에 대해 불리한 편견을 가지지 않도록 하는 것을 목표로 한다. AI 시스템의 공정성을 보장하기 위해서는 차별 배제 및 신뢰성 구축을 통하여 불공정한 AI 시스템이 사회적 불평등을 증대시킬 수 없도록 하여야 할 것이다. AI의 공정성은 사회적 안전망을 구축하는 데 중요한 역할을 한다. AI 공정성을 달성하기 위해서는 다음과 같은 조치들이 필요하다. ① 다양한 데이터셋의 활용, ② 알고리즘 검토, ③ AI 시스템에 대한 규제와 표준의 마련, ④ 윤리적 측면을 고려한 AI 개발, ⑤ 피드백 시스템의 구축 등이 그것이다.
AI의 공정성의 평가 대상이 되는 민감 항목에 대해서는 AI의 이용 용도나 목적에 따라 각각 정할 필요가 있다. 또한 공정한지 여부를 판단하기 위한 각 지표의 기준치에 어느 정도의 값을 설정하면 좋은지의 최종 판단도 AI 제공자에게 맡겨져 있다. 이러한 과제에 대해서는 공정성에 영향을 줄 것 같은 항목을 자동으로 추출하고, 그 중에서 민감 항목을 제안해 주거나 민감 항목의 내용이나 AI의 내용을 고려하여 지표치마다 기준치를 추천해주는 툴의 등장이 기대된다. 한편, 툴을 사용하여 편견을 방지, 감지, 완화 및 모니터링할 수 있지만 특정 도구에 크게 의존하지 않도록 주의해야 한다. 모든 방법에는 강점과 한계가 있다. 가장 잘 작동하는 것은 양적 및 질적 도구의 조합과 AI 수명 주기의 모든 단계에서 편견을 줄이기 위하여 공동의 노력을 기울이는 것이다.
AI의 공정성은 AI 시대의 차별을 배제하고, 모든 사람이 인간으로서의 존엄을 지키며 평등하게 행복을 누릴 수 있는 사회를 건설하는데 도움을 줄 것이다.