1,280만 명의 플레이어가 알고리즘의 감시를 받고 있으며, 64개 관할 구역이 실시간으로 모니터링되고 있다. 이 수치는 아이게이밍 산업에서 AI가 차지하는 규모를 단적으로 보여준다. 플레이어 보호라는 명분을 내세우지만, 동시에 가장 정교한 상업적 프로파일링 도구로 변모할 위험을 안고 있는 것이 현실이다.
보호의 환상과 숨은 이면
Mindway AI는 플레이어 행동을 추적해 위험 신호를 감지하고, Future Anthem은 Betsson과 같은 글로벌 사업자의 수십억 건 거래를 분석한다. 표면적인 목표는 문제적 행동을 예방하고 조기 개입을 통해 이용자를 보호하는 것이다. 그러나 같은 알고리즘은 상업적 목적으로도 활용될 수 있다. 보호를 위해 설계된 데이터가 다시 마케팅 수단으로 전환될 때, 예방과 영업 사이의 경계는 쉽게 흐려진다.
양면성을 가진 알고리즘
AI 도구는 장시간 이용, 빈도 증가, 손실 만회 시도, 비정상적 입금 변동 등 ‘위험 신호’를 포착한다. 이론적으로 이는 위험 행동 예방에 유용하다. 하지만 마케팅 부서에선 같은 데이터를 ‘높은 몰입도’의 징후로 해석할 수 있다. 예를 들어 재정적 압박을 보여주는 신호가 특정 보너스 제공 기회로 전환될 수도 있다. Future Anthem의 Amplifier AI는 유지율을 높이기 위해 개인화 서비스를 제공하면서도 동시에 위험을 경고한다. 기술은 동일하지만 활용 목적은 정반대일 수 있다.
GDPR과 법적 회색지대
문제의 핵심은 데이터 관리다. 보호를 위해 수집된 정보가 홍보에 재활용된다면, GDPR이 정한 원칙에 위배된다. 특히 제22조는 자동화된 의사결정만으로 이용자가 불이익을 받지 않을 권리를 명시한다. 실제 현장에서는 ‘정당한 이익’이라는 넓은 해석을 근거로 대규모 프로파일링이 이루어지고 있다. 거부 의사를 밝힌 이용자조차 맞춤형 콘텐츠 타깃에서 완전히 배제되지 못하는 경우도 있다. 더 나아가 위험 신호 데이터가 건강 상태나 취약성을 추론할 수 있다면, 이는 GDPR 제9조가 규정하는 민감정보에 해당할 수 있어 규제 복잡성은 더욱 커진다.
상업적 감시 생태계
데이터는 한 사업자에 머물지 않는다. 기술 협력을 통해 여러 플랫폼에 확산된다. 예컨대 Mindway AI는 Kindbridge와 협력해 위험 탐지에서 치료 개입까지 연결한다. 이는 의료 생태계에서 병원, 약국, 보험사가 기록을 공유하는 구조와 유사하다. 하지만 베팅 산업에서 이해관계자가 늘어날수록 오용, 오류, 유출 시 피해는 훨씬 광범위해질 수 있다. 이탈리아의 ‘RUA(Registro Unico delle Autoesclusioni)’ 제도는 자율적 차단을 신청한 이용자를 모든 사업자에서 자동 차단하도록 해 보호를 강화했다. 하지만 동시에 개인 데이터가 여러 사업자를 넘어 확산될 수 있음을 보여준다.
위험 완화와 인간 감독의 한계
일부 운영사는 보호 목적 데이터와 마케팅 데이터를 분리하는 구조를 도입해 규제 리스크를 줄이고 있다. 이는 비용 부담이 크지만 필수적 조치로 여겨진다. GDPR은 중요한 의사결정에 인간 개입을 요구한다. 하지만 수백만 건의 알고리즘 평가를 사람이 모두 검토하는 것은 현실적으로 불가능하다. 이 때문에 투명성이 핵심 과제로 부각되고 있다. 유럽연합의 AI법(AI Act)은 권리와 자유에 영향을 주는 시스템에 대해 설명 의무와 책임성을 강화하고 있으며, 이는 베팅 업계에도 적용될 전망이다.
지속 가능한 균형을 향해
AI는 플레이어 보호를 위한 최강의 도구가 될 수도, 상업적 착취를 위한 정교한 시스템이 될 수도 있다. 관건은 현재 내려지는 선택이다. 보호와 마케팅을 기술적으로 분리하고, 투명성을 확보하며, 규제기관·사업자·기술 제공자·플레이어가 협력한다면 AI는 신뢰와 지속 가능성을 동시에 보장할 수 있다. 반대로 governance가 부실하다면 AI는 산업 전반의 신뢰를 위협할 위험 요소로 작용할 것이다.
출처: SiGMA


