Антиутопия стала реальностью: в Британии хотят наказывать за "мыслепреступления"

Человечество на наших глазах вступает в новые тёмные века. Да такими темпами, что Джордж Оруэлл и Филип Дик с их антиутопиями кажутся добрыми детскими сказочниками. На неделе в Великобритании объявлено, что со следующего года в королевстве будет запущена нейросеть, которая будет предсказывать преступления до того, как они совершатся. Создается специальный алгоритм, который, согласно заявлениям разработчиков, позволит на основе персональных данных вычислять в обществе людей, наиболее склонных к убийствам. Общество же, и так пребывающее в шоке от введённой в июле в Великобритании жесточайшей онлайн-цензуры, полагает, что власти будут использовать этот алгоритм как дополнительное средство отслеживания поведения обычных граждан, в первую очередь тех, кто недоволен проводимой властями политикой. То есть об отслеживании того, что Оруэлл называл мыслепреступлением. И ведь что самое ужасное - большая, если не большая часть населения на Западе по-прежнему уверена - они живут в цитадели демократии.

Антиутопия стала реальностью: в Британии хотят наказывать за "мыслепреступления"
© ТВ Центр

Узнав о преступлении за минуты до его совершения, герой фильма Стивена Спилберга "Особое мнение" оказывается на месте за считанные секунды до убийства и предотвращает его.

В центре сюжета - полицейский Джон Эндертон - старший оперативник отдела профилактики преступлений. В своей работе он использует предсказания трех провидцев - людей с экстрасенсорными способностями. Преступность в одном отдельно взятом штате полностью побеждена. Теперь задача - распространить удачный эксперимент на всю страну. Даже в год выхода фильма - в 2002-м - это казалось невероятным. Не говоря уже о далеком 1956-м, когда Филип Дик написал легший в основу блокбастера рассказ. Ведь его события происходят спустя столетие. Но вот на дворе 2025-й. И в Великобритании готовятся реализовать фантастический сценарий наяву. Не дословно, но близко к тексту.

"Эксперты поставили перед собой задачу создания подробных интерактивных карт преступности, которые определяют, где с наибольшей вероятностью произойдёт преступление, чтобы обеспечить эффективное предупреждение. К 2030 году такой инструмент будет полностью введён в эксплуатацию. Самые яркие умы Британии поддержат создание системы защиты законопослушного большинства от нарушителей закона".

Пресс-релиз, опубликованный на сайте британского правительства, изобилует громкими заявлениями и явно направлен на то, чтобы произвести впечатление на обывателя. В документе многократно и даже с избытком звучит - "насилие в отношении женщин и подростков", "холодное оружие", "грабеж". Соединенное королевство, очевидно, устало от разгула преступности. А новая система, по мнению министра технологий Питера Кайла, позволит сократить число криминальных инцидентов вдвое за десять лет.

Все вроде бы просто. Полиция, госорганы и социальные службы будут обмениваться всей информацией о гражданах, включая их поведенческие модели. Примечательно, что в пресс-релизе правительства в оценках экспертов - один сплошной "одобряем-с". И лишь одно мнение выбивается из общего контекста.

"Конечно, технологии могут сыграть роль в решении такой сложной проблемы, как преступность. Но только при условии осторожного использования, с учётом того, что отдельные люди могут оказаться как преступниками, так и жертвами. Кроме того, определённые сообщества рискуют быть несправедливо профилированными. Любое технологическое решение должно идти рука об руку с проверенными мерами, такими как работа с теми, кто находится в группе риска, а также устранение коренных причин большинства преступлений – бедности и неравенства", - отметил Трейси Берли, исполнительный директор благотворительного фонда "St Giles".

Готово ли к такой системной работе английское правительство, ответ уже дан. Зачем тратить миллиарды фунтов на социальные программы, если всего за 500 миллионов можно получить одновременно и столь ожидаемое в обществе снижение преступности - теоретически, а в реальности - систему фактически тотальной слежки за гражданами.

По этому пути высокоцивилизованное и демократическое британское общество идет уверенной поступью. В июле в стране вступил в действие закон о жесточайшей онлайн-цензуре. Под запретом отныне публикации о протестах и войнах, критика властей и международных институтов, статьи в интернет - энциклопедиях с неким "опасным содержанием".

Известная видеоплатформа теперь автоматически удаляет материалы на "чувствительные темы". Все соцсети под контролем уже давно. В августе 24-го в тюрьме оказались трое английских блогеров за высказывания против мигрантов. Тремя годами ранее суд признал виновной учительницу христианской школы Кристи Хиггс, выступавшую против нетрадиционных отношений.

Более того, по мнению британских властей, преступно теперь даже молчание. Ветеран армии Адам Смит-Коннер был вынужден выплатить крупный штраф за то, что, склонив голову, молился у госпиталя, где его жене сделали аборт. И не исключено, что в новых реалиях, если решит повторить молитву, получит уже реальный срок. Ведь предлагаемый алгоритм борьбы с преступностью будет анализировать прежние правонарушения, легко превращая в рецидивистов не только убийц и воров, а всех, кто так или иначе нарушил "демократические" британские законы.

Презумпция невиновности? О чем вы! "Мыслепреступление" из фантастического романа Оруэлла на глазах перекочевало в реальность. И писал он, как выясняется, не про СССР, а про родную Британию. Правда, тогда и представить не мог, что многое, если не все, будет зависеть от искусственного интеллекта. У которого, как считается, по крайне мере пока нет души. Но нет и достаточной базы, чтобы делать собственные правильные выводы.

"Это революция, которая сейчас не может быть оценена в части последствий, которые она несет. Я считаю, что число предвзятых решений органов будет расти. Потому что они будут опираться на решение модели ИИ. Для того, чтобы классифицировать угрозу какую-либо, необходимо в дата-сете иметь примеры этой угрозы. Они говорят, что собрали данные видео за три года, хотя очевидно, что данные меряются не хронометражем и продолжительностью их сбора, а количеством примеров, на которых мы можем обучиться. И соответственно, здесь скорее всего, есть угроза по качеству", - пояснил Роман Смирнов, заведующий лабораторией искусственного интеллекта МФТИ-Физтех.

Эксперты говорят, что вопросы возникают на каждом этапе реализации британского проекта. Далеко не все камеры, а их в стране действительно множество, имеют необходимое высокое разрешение. Кроме того, в криминогенных районах они не служат долго - их попросту ломают. Наконец, по каким критериям искусственный интеллект будет вычислять преступников - по цвету кожи, разрезу глаз, свирепому выражению лица? Но так недалеко и до теории Ламброзо, который предлагал выявлять преступников по антропологическим признакам черепа. Итог - казни невинных людей.

"Как физиогномист, я могу точно сказать, что, увидев лицо человека, определить, преступник он или нет, крайне сложно и даже, наверное, невозможно. Тут приходят на помощь именно элементы психологии. Его паттерны поведения, его биография, его мотивации и даже его психологическое состояние", - рассказала Наталья Ковалева, психолог, физиогномист.

Все это британская система вроде бы предполагает. Вот только анализировать данные будет опять-таки искусственный интеллект. А то, как он это может делать, в свое время привело в ужас исследователей центра Джона Хопкинса. Робот всего лишь должен был разложить кубики с фотографиями людей по ячейкам. А он под управлением нейросети тут же навесил ярлыки.

"Ошибки ИИ - это на самом деле ошибки его создателя. Очень важно, чтобы ИИ нашел именно правдивую информацию, считывая безумное количество данных в интернете. И мы должны помнить, что у ИИ ведь нет мотивации. Он всего лишь выполняет запрос, который дал человек. Ошибка человека единична, а вот ошибка ИИ может разойтись на миллионы пользователей. И тут сразу вопрос: а кто контролирует вот эти ошибки ИИ, кто за них отвечает", – говорит Наталья Ковалева.

В 2022 году в университете Чикаго создали алгоритм, который, по утверждению разработчиков, мог предсказать место и время преступления на неделю вперед с точностью до 90 процентов, самообучаясь на имеющихся данных о правонарушениях. Вот только после испытания системы в восьми городах выяснилось - полиция стала чаще реагировать на инциденты в богатых районах и почти никогда в бедных. Что вызвало вопросы: уж не присуща ли бездушной нейросети социальная предвзятость. Другой аспект, о котором как-то забывают те же адепты "зеленой повестки".

"Кроме камер, которые необходимо установить - с высоким разрешением, как мы с вами уже определились, необходимо еще и огромное количество вычислительных ресурсов. Для того, чтобы покрыть город, я думаю, что понадобиться нагреть этот город на два-три градуса", - отметил Роман Смирнов.

Но главная проблема все же лежит в этической плоскости. Существующие сегодня алгоритмы - словно "черные ящики", способные выдать непредсказуемый результат. И если в фильме "Особое мнение" людям приходилось верить фантастическим провидцам, то в реальности полагаться предлагается на искусственный интеллект. И кто в этом случае сможет ответить, что страшнее - непредотвращенное убийство или казнь невиновного. Ведь мысль о преступлении еще не означает его совершения. Однако бездушной нейросети понимание этого недоступно.