영국이 페이스북, 인스타그램, 틱톡 등 빅테크의 플랫폼에 연령 확인을 강화하고 알고리즘을 통제하라고 경고했다.

          BBC에 따르면 영국 통신미디어 규제 당국인 오프콤(Ofcom)은 지난해 10월 제정된 온라인안전법 시행을 위한 아동 안전 규칙안을 8일(현지시간) 발표했다.

          새 규칙안에 따르면 각 플랫폼은 어린이가 자살이나 자해, 음란물, 섭식장애 등과 연계된 유해 콘텐츠를 보지 못하도록 사용자 연령 확인을 강화해야 한다.

          사용자 식별을 강화하고 어린이 사용자의 개인 맞춤형 피드에서 유해 콘텐츠를 차단하거나 줄이도록 알고리즘을 재구성해야 한다.

          멜라니 도스 오프콤 대표는 “테크 기업들은 어린이의 개인화된 피드에 유해 콘텐츠를 밀어넣는 공격적인 알고리즘을 통제하고 나이에 적합한 경험을 하도록 연령 점검을 도입해야 한다”고 말했다.

          그는 규칙을 어긴 기업의 이름은 공개된다며 미성년자 사용 자체를 차단하는 등 더욱 강력한 조치도 고려될 수 있다고 말했다.

          이어 “이번 조치는 현재 업계 표준을 훨씬 뛰어넘는 수준”이라며 “법이 전면 시행되면 플랫폼에 책임을 지우는 권한을 주저 없이 행사하겠다”고 강조했다.

          오프콤은 7월 17일까지 의견수렴을 거친 이후 1년 내로 규칙안을 확정하고 의회 승인을 거쳐 시행에 들어갈 계획이다. 온라인안전법은 또 오프콤에 과징금 부과, 형사 처벌 추진 등 권한을 부여한다.

          이번 조치는 갈수록 청소년의 SNS를 통한 유해 콘텐츠 노출이 늘어나고 위험한 콘텐츠가 청소년 신체·정신 건강에 악영향을 미친다는 비판이 거세진 가운데 나왔다.

          13세 아들이 SNS에서 유행하는 ‘기절 챌린지’를 하다가 사망한 리사 케니번은 BBC에 “변화가 너무 느리다. 현실에선 더한 사례가 발생할 것”이라고 지적했다.

          0
          0
          Share:

          Leave a Reply

          Your email address will not be published. Required fields are marked *