본문으로 건너뛰기

편향(Bias)

← 용어 사전

한 줄 정의

편향(Bias)은 AI가 학습 데이터에 내재된 편중된 패턴을 반영하여 특정 집단·관점·결과를 체계적으로 선호하거나 배제하는 현상이다.

왜 중요한가(실무)

AI는 학습 데이터의 거울이다. 데이터에 특정 성별·연령·지역·문화에 대한 편향이 있으면, 모델 출력도 그 편향을 그대로—때로는 증폭하여—재현한다. 채용 AI가 특정 성별 지원자를 체계적으로 낮게 평가하거나, 대출 심사 AI가 특정 지역 거주자에게 불리한 판정을 내리는 사례가 실제로 발생했다.

편향 문제는 단순한 기술 결함이 아니라, 법적 책임(차별 금지법, EU AI Act 등)과 브랜드 리스크로 직결된다. AI를 업무에 도입할 때, "이 모델이 특정 집단에 불공정한 결과를 내지 않는가"를 사전에 평가하고 지속적으로 모니터링하는 체계가 필요하다.

핵심 이론(직관)

1) 편향은 '입력'에서 시작된다

모델은 학습 데이터의 통계적 패턴을 학습한다. 만약 과거 채용 데이터에서 남성 합격률이 높았다면, 모델은 "남성 지원자 = 합격 가능성 높음"이라는 패턴을 학습할 수 있다. 이는 모델의 의도적 차별이 아니라, 데이터에 담긴 역사적 편향의 자동 재현이다.

2) 편향은 보이지 않을 때 더 위험하다

명시적으로 "성별" 변수를 제거해도, 이름·학교·주소 등 간접 변수(프록시)를 통해 편향이 우회적으로 작동할 수 있다. 이를 "프록시 편향"이라 하며, 발견이 어렵기 때문에 정기적인 공정성 감사(Fairness Audit)가 필요하다.

3) 생성형 AI에서의 편향

LLM은 텍스트 생성 시에도 편향을 드러낸다. 특정 직업에 대해 항상 같은 성별을 연상하거나, 특정 문화권의 관점을 기본값으로 채택하는 경향이 있다. 고객 대면 콘텐츠 생성, 보고서 작성, 추천 시스템 등에서 이 편향이 외부에 노출될 수 있다.

실무 포인트

1) 도입 전 공정성 평가를 수행하라

AI가 의사결정에 관여하는 업무(채용, 심사, 추천, 평가 등)에서는 도입 전에 다양한 집단별 출력 차이를 측정하는 공정성 평가를 반드시 수행한다. 성별·연령·지역 등 보호 속성(Protected Attributes)에 따라 결과가 유의미하게 달라지는지 확인한다.

2) 프롬프트와 가이드라인으로 출력 편향을 완화하라

생성형 AI의 경우, 시스템 프롬프트에 "다양한 관점을 균형 있게 반영하라", "특정 집단에 대한 고정관념을 피하라" 같은 명시적 지침을 포함하면 출력 편향을 줄일 수 있다. 단, 이는 근본적 해결이 아니므로 정기적 모니터링과 병행해야 한다.

체크리스트

  • AI가 의사결정에 관여하는 업무에서 보호 속성별(성별, 연령, 지역 등) 출력 차이를 측정했는가
  • 입력 데이터에 역사적 편향이 포함되어 있는지 검토했는가
  • 간접 변수(프록시)를 통한 우회 편향 가능성을 확인했는가
  • 생성형 AI 출력에 고정관념·편중 표현이 포함되지 않도록 프롬프트 가이드라인을 설정했는가
  • 편향 모니터링 주기와 담당자가 지정되어 있는가