Между безопасностью и приватностью: оправдывает ли цель радикальные средства?

08/06/2023

2 июня в Таллинне прошла дискуссия «Защита детей онлайн: между безопасностью и приватностью», организованная евродепутатом Яной Тоом (Centre Party/Renew Europe) в сотрудничестве с Информационным бюро Европарламента в Эстонии. Стрим дискуссии можно увидеть на Facebook и YouTube.

Открывая дискуссию, Яна Тоом отметила, что в 2021 году число сигналов о сетевом сексуальном насилии над детьми выросло на 34%. «Проблема углубляется, и мы должны ее решать. У нас есть регуляция, она действует до августа 2024 года и позволяет обрабатывать личные данные и сообщения, чтобы бороться с материалами, связанными с сексуальным насилием над детьми (children sexual abuse materials, CSAM). Эта регуляция позволяет соцсетям и чатам выявлять и удалять такие материалы, а также сообщать о них властям на добровольной основе. Теперь Еврокомиссия сочинила новый законопроект, требующий от сайтов, соцсетей и чатов проактивно искать CSAM и отслеживать груминг – это когда взрослые общаются с детьми, убеждая тех сделать интимные фото и поделиться ими. Сайты и чаты должны оценить, насколько данный сервис можно использовать для распространения CSAM. Они обязаны ввести верификацию возраста, чтобы оградить детей от высокорисковых сервисов. Власти страны следят за этой оценкой риска и могут делать запросы и присылать ордер на выявление преступников в случае, если сервис относится к высокорисковым».

Защиту цифровых прав представляла Элла Якубовска, старший советник по политике ассоциации European Digital Rights (EDRi). «Власти не без причины хотят принимать меры для защиты детей и требовать от компаний того же, – признала она. – Но нынешнее предложение Еврокомиссии заходит слишком далеко с точки зрения как прав человека, так и технологии. По этому предложению вся коммуникация на использующих сквозное шифрование (end-to-end encryption) платформах вроде WhatsApp, Signal и Threema рассматривается как высокорисковая в плане CSAM. Еврокомиссия хочет принудить частные фирмы сканировать всю переписку на этих платформах и использовать основанные на искусственном интеллекте (ИИ) технологии, чтобы ее анализировать и, если ИИ сочтет ее подозрительной, сигнализировать об этом полиции».

Якубовска добавила: «Если мы говорим, что в ЕС произвольное сканирование частной переписки – норма, мы даем карт-бланш Китаю, Ирану, другим репрессивным режимам, чтобы они следили за нашей коммуникацией через технологии, позволяющие отслеживать наше местонахождение, мониторить всё, что мы говорим и делаем, подвергать нас цензуре. Это – шаг в направлении авторитарного интернета, шаг, который важно не дать сделать».

Милан Зубичек, менеджер по общественным интересам Google, подчеркнул, что важно позволить компаниям и дальше инвестировать в обнаружение CSAM на добровольной основе. «Мы понимаем, что этого недостаточно – и власти хотят создать новые инструменты борьбы с CSAM. Мы говорим об ордере на выявление преступников, но в этом случае нам нужны дополнительные меры защиты. С нашей точки зрения важно прояснить, какие именно сервисы подпадают под закон и что именно они обязаны делать. Вмешательство должно быть эффективным, точечным и пропорциональным».

Была представлена и позиция META: корпорация поддерживает инициативу борьбы с CSAM, сейчас она использует для выявления и ликвидации групп, обменивающихся CSAM, метаданные, то есть сканирует не переписку, а подозрительное поведение. МЕТА считает, что вполне возможно найти CSAM в зашифрованном сообщении, не читая контент и не внедряя проблемные технологии, такие как сканирование клиентов. Но для этого корпорации нужна база в виде законов, а новая регуляция такую базу не предоставляет.

Керли Валнер, координатор просветительской работы проекта «Targalt internetis» НКО «Союз защиты детей» (Эстония), указала на то, что проблема CSAM серьезна: «С 2011 года мы по горячей линии получили более 7000 сообщений и в 2000 случаев обнаружили CSAM. Мы рады тому, что данная регуляция позволяет бороться с сетевым сексуальным насилием над детьми более эффективно и своевременно. Необходимо сотрудничество и между странами ЕС, и на международном уровне. Поскольку дети – тоже активные пользователи разных цифровых технологий и платформ, важно гарантировать и их участие. В то же время мы должны обеспечить им необходимую поддержку и защиту, а также приватность. Нам нужно равновесие».

Маарья Кярсон, советник отдела благополучия семьи и детей Министерства социальных дел Эстонии, добавила, что даже в такой маленькой стране, как Эстония, в прошлом году было зафиксировано 250 случаев бесконтактного сексуального насилия над детьми, из которых около 90% имели место в интернете. Она сказала, что когда Еврокомиссия представила свое предложение, правительство Эстонии поддержало его цель. «Кроме того, мы указали на разные проблемы, которые нужно разрешить. Мы поддерживаем это предложение. Однако мы не против дискуссии о праве на приватность. Важно понимать, что это не вопрос "права детей против приватности". Приватность – это и право ребенка тоже. Дети – такие же цифровые граждане, они используют те же самые каналы. Их приватность тоже нужно защитить. Когда мы говорим о такой чувствительной для молодых людей теме, как развитие сексуальности, мы хотим, чтобы в эту часть их жизни никто не вторгался».

По словам Хенрика Трасберга, советника по новым технологиям и цифровизации правового отдела Министерства юстиции Эстонии, если платформа использует сквозное шифрование, нельзя принуждать ее это шифрование ломать: «Такова позиция правительства Эстонии. Другое дело – материалы, которые регулирует предложение Еврокомиссии. Тут есть разный риск для приватности. Если мы стараемся искать существующие CSAM и смотрим для этого на контент, это куда менее проблематично, чем если мы проактивно пытаемся искать непонятно что. В одном случае мы ищем нечто специфическое, в другом – просто осуществляем тотальную фильтрацию. Регуляция при этом не говорит ничего о мерах защиты».

Яна Тоом задала вопрос, который порой возникает у ее поддерживающих новую регуляцию коллег: «Если мою переписку просматривает ИИ, является ли это нарушением приватности?»

«ИИ будет просматривать коммуникацию только на первом этапе, – ответила Элла Якубовска. – По этому предложению платформы обязаны передавать все, что не является материалом, точно не содержащим CSAM, национальной полиции. Так что это будет не только ИИ. Между прочим, в Ирландии из тысяч сгенерированных ИИ сигналов полиции за последние пять лет по меньшей мере 500 человек оказались абсолютно невиновными. Речь шла о фото типа "дети играют на пляже" или о взрослых, которые по взаимному согласию посылали мужьям и женам фото ребенка без одежды. Однако против этих 500 человек были возбуждены дела. Их данные были в базе данных, которая ассоциировала их с преступлением сексуального насилия над детьми, пусть потом и было доказано, что они невиновны».

Вы можете посмотреть 15-минутный обзор дискуссии наверху или на YouTube (на английском). Полная запись дискуссии доступна здесь (также на английском).