Искусственный интеллект с 1 июля создаст цифровой лагерь в РФ. Человек - виновен всегда. Часть 2
Санкт-Петербург / AbsolutTV.ru / Новости / Игорь Шнуренко - писатель, эксперт по искусственному интеллекту рассказывает о цифровом концлагере, о тех, кто фанатично желает иметь безграничную власть и контроль над людьми.
Закон о развитии искусственного интеллекта в Москве уже действует
Есть технологии, которые основаны на больших данных, они предвосхищают поведение заказчика в разных аспектах. Когда в документе московского правительства говорится о детальном понимании нужд пользователей на основе анализа данных, то имеется в виду именно это.
Игорь Шнуренко
фото: День ТВ
Чем еще будет заниматься московское правительство по этому закону?
- Беспилотным транспортом, что тоже прописано в концепции «Умный город», где водитель контролирует, но не управляет.
- Улучшение дорожной ситуации за счет уменьшение числа автомобилей.
- Изменение качества и содержание образования, то есть цифровой учитель на базе искусственного интеллекта (ИИ), образовательные онлайн-платформы на базе дополненной виртуальной и смешанной реальности.
- Повсеместное применение роботизированной техники и дронов.
- Ну, а вишенкой на торте – электронное голосование на городских выборах. Таким образом, мэр может править вечно.
К 2030 году Москва должна стать городом управляемым данными, то есть, все решения должны происходить на основе автоматической обработке и анализа накопленных больших данных…
Зачем это делается? Это делается для аутсорсинга ответственности. Допустим, раньше люди подавали заявления и жалобы в письменном виде. И эти жалобы рассматривались людьми. Можно было отказать, можно было принять. Но теперь будут все заявления цифровыми, причем пригодными для обработки системами ИИ, и он же и будет принимать решение. Жалобу рассмотрит нейросеть. И потом хоть жалуйтесь в ООН или Европейский суд и никаких других, наверное, способов, скорее всего, не останется. В федеральном законе 123 совершенно не прописан механизм защиты людей от ошибок или какого-то слишком резвого применения новых технологий.
Мы знаем, как используется социальный мониторинг. Любое сомнение будет толковаться против человека. Прямо не прописано, что человек может делать, куда пожаловаться он может, каким образом всё это будет происходить, где там люди могут находиться в процессе рассмотрения. Можно не сомневаться, что он автоматически будет признаваться виноватым…
Какие права могут быть нарушены. И что делать, если дрон влетел в окно и разбил мебель? Или беспилотник разбил машину? А беспилотник находится как раз под охраной экспериментального этого режима. Или сбил человека, не дай бог? А что если ИИ принял решение отказать ребёнку принять его в школу, в детский сад? Или вам выписали автоматически штраф за правонарушение, которого вы не совершали? Или нейросеть отказала вам удовлетворить жалобу на её же решение?...
Фактически по закону в применении федерального закона 123 отдаются на откуп мэрии. Там прямо об этом написано. Мэрия отдаёт это на откуп ИИ, потому что об этом закон. И собственно, кому жаловаться? Не понятно.
Есть еще один важный момент. В законе несколько раз используется выражение «обезличенные данные», то есть персональные данные, получаемые в результате обезличивания. Подразумевается, что обезличивание – это означает, что есть некоторые данные, которые соответствуют именно вам, и в ходе какой-то компьютерной обработки связь между вами и этими данными утрачивается, то есть остаётся не имя, фамилия, а человек стольких лет с такими-то данными по здоровью и т.д. И считается, почему-то, что эти данные обезличены.
Но на самом деле, есть исследования, которые еще в 10-е годы были сделаны. Есть академические работы на эти темы, английские ученые об этом писали. Что вполне можно по набору данных идентифицировать человека. То есть, если есть какая-то операция по «обезличиванию», где там в итоге убирается, стирается ваше имя, то обратную процедуру по вашим данным (кому они принадлежат) автоматически машина может сделать. Причём это касается даже людей, которые сознательно скрывают свои данные. Были уже такие случаи… Это говорит о том, что, если человек не прячется, очень легко раскрывается. Поэтому обезличивание - это только слова. При этом, в этом законе нигде не прописывается, как именно происходит обезличивание, кто будет это контролировать...
Закон этот никак не обсуждался. Если спросить у депутатов Думы, которые за него голосовали, то вряд ли они название его вспомнят.
Интересен еще один момент. Закон предусматривает создание некого регулирующего органа, который называется координационный совет экспериментального правого режима. Это орган будет обладать огромными полномочиями. Он, собственно, будет решать, как это вводить и как это контролировать. Состав этого координационного совета будет утверждаться мэрией Москвы при согласовании правительства Российской Федерации, которая может своих представителей в этот орган вводить. Москва будет первую скрипку играть в этом координационном совете. Там нет ни слова о том, что там будет представлена какая-то общественность, политические партии, пусть даже лояльные правительству. То есть, чиновники сами соберутся и что-то такое соорудят -координационный совет… Ни о каком обеспечении гласности работы, прозрачности работы этого сета нет и речи.
Недавно мне в руки попал любопытный документ. Пока проект, но мы видим, как они быстро за 2 недели пройти все 3 слушания, утверждения верхней и нижней палаты, и быть подписанным президентом. Это проект концепции развития регулирования в сфере технологий ИИ и робототехники до 2024 года. Этот документ разрабатывается юристами близкими к Сбербанку… Сбербанк, кстати, разработал основу для концепции развития ИИ в Российской Федерации до 2030 года…
По сути, Сбербанк запускает пробный шар, делает основную работу, а потом это всё немножко обтачивается и принимается. Там прописаны некие этические нормы, на основе которых должны развиваться эти технологии ИИ. Вроде бы слова говорятся правильные, но в скобочках некие оговорки, которые дискредитируют эти правильные слова.
Например, говорится о том, что этические нормы предусматривают приоритет благополучия человека. Но при этом делаются оговорки, что есть еще иные цели разработки и применения систем ИИ и робототехники, которые должны быть учтены.
Проговаривается запрет на причинение вреда человеку по инициативе систем ИИ и робототехники. Здесь важны слова «по инициативе» систем. То есть, имеется в виду, что если система ИИ по своей инициативе целенаправленно причиняет вред человеку, как говорится в скобках, то тогда это плохо. Но человеку предстоит доказать, что она целенаправленно причиняет вам вред, она делает это по своей инициативе. Но это полностью обессмысливает судебное применение данного тезиса, потому что доказать злой умысел алгоритма, когда компьютер решил причинить вам вред – это практически невозможно!
Там провозглашается подконтрольность человеку всех этих систем, но в скобках оговаривается, в той мере, в которой это возможно с учётом требуемой степени автономности систем ИИ и иных обстоятельств. Это практически будут делать, что хотят…
Получается, что по каждому пункту есть такая оговорка. В принципе провозглашается, что может быть, мы сделаем разработчиков виновными, если что-то пошло не так. Но нет! Тоже есть оговорка в проекте, что разработчик должен заведомо проявить некий злой умысел, чтобы быть наказанным. Если он просто чего-то не учел, то никаких проблем нет.
Вот эти сырые законы, которые сейчас молниеносно принимаются без какого-либо обсуждения, они могут привести к катастрофическим последствиям. Я призываю всех обратить на это внимание.
источник видео: День ТВ
фото: архив vladtime.ru
Комментариев 1