ChatGPT와 같은 생성형(generative) AI가 AI의 새로운 흐름을 바꾸고 있다. 판단형 알고리즘은 채용이나 범죄예측 등의 활용에 사용되며 학습데이터가 갖는 한계로 인하여 편견 가능성이 크다. 또한, 추천형 알고리즘은 편견을 확증할 수 있다는 우려도 크다. 특정 정보를 추천하면서 다른 정보가 배제되는 필터버블(filter bubble) 현상이 발생할 수 있기 때문이다. 이러한 편견 등의 발생은 데이터 기반의 기계학습이 갖는 한계이기도 하다. 학습데이터로 가공되어지는 공개된 정보에는 세상의 모든 편견이나 오류가 그대로 담기기 때문이다. 인간의 문제가 투영된 데이터를 기반으로 하는 AI모델도 인간의 문제를 그대로 학습하게 된다. 그렇기 때문에 알고리즘에 의한 사회적 문제는 지속적으로 제기될 것이다. 예를 들면, 채용이나 신용도 등을 판단하는 알고리즘과 이를 학습하는 데이터에 편향이 담겨있는 경우, 또는 기본권의 침해가 이루어져 삶의 가치를 훼손하는 경우 등이다. 알고리즘으로 인하여 발생하는 다양한 문제를 해결하기 위한 방안 중 하나로서 알고리즘 공개를 들 수 있다. 이에 대해 플랫폼사업자는 알고리즘이 영업비밀에 해당하기 때문에 공개할 수 없다는 입장이다. 공공부문에서도 그 입장은 다르지 않다. 문제는 알고리즘 규제론자들은 알고리즘 공개에 대한 합리적인 기준을 제시하지 못한다는 점이다. 알고리즘 공개에 대한 설득력을 얻기 위해서는 정당성을 확보하기 위한 방안을 제시해야 한다. 즉, 알고리즘 공개에 대한 구체적인 이유나 방법을 규제기관이 플랫폼사업자에게 제공해 주어야 한다. 규제기관은 명확한 정책목표를 달성하고, 플랫폼사업자들은 예측가능성을 가져야 하기 때문이다. 이에 알고리즘 공개에 대한 구체적인 방안과 사업자들이 우려하는 영업비밀과의 비교교량을 통해 신뢰가능한 알고리즘을 위한 합리적인 방안을 제시하고자 한다.
Generative AI such as ChatGPT is changing the new trend of AI. Judgment algorithms are used for recruitment or crime prediction, and there is a high possibility of bias due to the limitations of learning data. In addition, there is a great concern that recommended algorithms can confirm prejudice. This is because a filter bubble phenomenon in which other information is excluded while recommending specific information may occur. The occurrence of such prejudice is also a limitation of data-based machine learning. This is because public information processed as learning data contains all prejudices or errors in the world. AI models based on data in which human problems are projected also learn human problems as they are. Therefore, social problems caused by algorithms will continue to be raised. For example, algorithms for judging recruitment or creditworthiness and data learning them contain biases, or infringement of basic rights undermines the value of life. Algorithm disclosure is one of the ways to solve various problems caused by algorithms. In response, platform operators say that algorithms cannot be disclosed because they are trade secrets. The position is no different in the public sector. The problem is that algorithmic regulators cannot provide reasonable criteria for algorithm disclosure. In order to gain convincing power for algorithm disclosure, a plan to secure legitimacy must be presented. In other words, regulatory agencies must provide platform operators with specific reasons or methods for algorithm disclosure. This is because regulators must achieve clear policy goals, and platform operators must have predictability. Therefore, we would like to present a specific plan for algorithm disclosure and a reasonable plan for a reliable algorithm through comparative bridges with trade secrets that operators are concerned about.