Техгиганты требуют запретить иски против алгоритмов YouTube – Люди PRO Media

Техгиганты требуют запретить иски против алгоритмов YouTube

Сейчас Раздел 230 федерального закона «О телекоммуникациях» не допускает таких разбирательств, однако в случае его изменений может появиться опасный прецедент, позволяющий подавать иски как против алгоритмов, так и против неалгоритмических форм рекомендаций и даже отдельных пользователей, советующих что-либо в Интернете.

Крупнейшие технологические компании, пользователи, ученые и эксперты по правам человека обратились к Верховному суду США с просьбой запретить иски против алгоритмов YouTube. Об этом пишет CNN.

По данным издания, речь идет о процессе «Гонсалес против Google». В 2015 году родственник истца погиб во время атаки ИГИЛ в Париже. Как утверждают пострадавшие, рекомендации YouTube частично виноваты в распространении вербовочных видео террористов.

Однако в Google утверждают, что Раздел 230 федерального закона «О телекоммуникациях» не допускает подобных разбирательств. В случае принятия судом решения в пользу истцов рекомендательные системы на основе ИИ могут исключить из правовой защиты, что приведет к радикальным изменениям Всемирной сети.

К защите Google присоединились другие корпорации. Среди них – Meta,Twitter и Microsoft, а также критики компаний вроде Yelp и Electronic Frontier Foundation. В защите также принимает участие Reddit и группа модераторов-добровольцев платформы. 

По мнению экспертов, судебный процесс может создать опасный прецедент, что позволит в будущем подавать иски как против неалгоритмических форм рекомендаций, так и против отдельных пользователей. В Meta отметили, что новые изменения Раздела 230 поднимут широкие обсуждения касательно любых «рекомендаций» в Интернете. Положительное решение суда грозит и GitHub, LinkedIn, а также ряду других платформ и целых компаний. В Microsoft отметили, что последствия нововведений Раздела 230 для них могут быть «разрушительны».

В Центре бизнеса и прав человека Стерна при Нью-Йоркском университете считают, что разработка правила, выделяющего алгоритмическую рекомендацию в качестве значимой категории ответственности, невозможна, поскольку это может привести к «потере или сокрытию огромного количества ценной речи».

Источник: CNN

Свежий выпуск «Люди PRO»

Свежий выпуск «МУЛЬТИЧЕЛА»

Свежий выпуск «МУЛЬТИЧЕЛ +»

Читайте также