content/news/images/75120/KSP_015476_00003_1_t218_085039_mainPhoto.jpg
08:27, 25.02.2018 / ОБЩЕСТВО

На обсуждение: «Искусственный интеллект мыслит как преступник»

Распространение технологии искусственного интеллекта (AI) может привести к росту киберпреступности и появлению ее новых форм, манипулированию общественным мнением и повреждению физической инфраструктуры уже в течение ближайших пяти лет, считают авторы доклада «Преступное использование AI: прогноз, профилактика и предотвращение».

На обсуждение: «Искусственный интеллект мыслит как преступник»
Эксперты предупредили об угрозах бесконтрольного распространения технологии. Фото Евгения Павленко, Коммерсантъ

100-страничный доклад написан 26 экспертами в сфере кибербезопасности, сообщил «Коммерсантъ». Среди них ученые из Оксфордского, Кембриджского и Стэнфордского университетов, аналитики некоммерческих организаций Electronic Frontier Foundation и OpenAI и представители других авторитетных организаций.

Авторы доклада сравнивают искусственный интеллект с ядерной энергией и взрывчатыми веществами, которые можно использовать как в мирных, так и в военных целях. «Когда возможности искусственного интеллекта станут более мощными и повсеместными, мы ожидаем, что это приведет к расширению существующих угроз, возникновению новых угроз и изменению типа угроз»,— предупреждают авторы.

«Многие из нас поражены масштабами того, что произошло за последние пять лет. Если это продолжится, вы увидите появление действительно опасных вещей»,— отмечает глава OpenAL Джек Кларк.

Разработчики должны на ранних этапах предусматривать возможность преступного использования искусственного интеллекта и создавать соответствующие ограничения, советуют авторы. Если это не будет сделано, искусственный интеллект станет мощным оружием в руках людей с преступными намерениями.

Авторы выделяют три главных направления угроз. Первая — искусственный интеллект поможет устраивать хакерские атаки. Технологии облегчат обнаружение уязвимостей ПО или выбор потенциальных жертв преступлений.

Также искусственный интеллект позволит использовать уязвимости человека. Например использовать синтез речи или создавать «контекстное» вредоносное ПО. Благодаря ему вероятность того, что пользователь нажмет на ссылку, запускающую вирус, или скачает нужное злоумышленникам приложение, резко вырастет. Хакерские атаки с применением подобных технологий будут намного масштабнее и эффективнее, чем сейчас.

Недобросовестное применение искусственного интеллекта в политической сфере также весьма вероятно. С его помощью власти создадут более мощные системы наблюдения за инакомыслящими.

Политические силы смогут проводить «автоматизированные, гиперперсонализированные кампании дезинформации». Искусственный интеллект сможет генерировать фейковые новости в таких количествах, что пользователю будет почти невозможно вычленить среди них настоящие.

Повысится эффективность и адресность пропаганды, манипулировать общественным мнением станет проще, предупреждают авторы. Особенно опасным это становится с учетом того, что с помощью искусственного интеллекта может быть сделан шаг вперед в изучении основ психологии поведения человека.

Третья группа угроз — возможность атак на физические объекты. Речь идет, например, о массовом управлении беспилотниками и другими автоматизированными боевыми комплексами.

Кроме того, искусственный интеллект будет способствовать злонамеренному внедрению в системы беспилотных автомобилей, с дальнейшими авариями или нападениями с их участием.

«Искусственный интеллект, цифровая безопасность, физическая безопасность и политическая безопасность прочно связаны, и их связь будет только укрепляться… Хотя конкретные риски бесчисленны, мы считаем, что понимание общих закономерностей поможет пролить свет на будущее и улучшить информирование для предотвращения и смягчения последствий»,— говорится в докладе.

Впрочем, некоторые эксперты отмечают, что масштаб проблемы может быть преувеличен. «Улучшения идут с обеих сторон — это постоянная гонка вооружений. Искусственный интеллект уже сейчас крайне полезен для кибербезопасности. Пока неясно, какая сторона извлечет больше выгоды», — считает сооснователь компании в сфере кибербезопасности CrowdStrike Дмитрий Альперович.

2130

Комментарии (14)

Добавить комментарий
  • Отдел "К"
    25 февр. 2018 г., 9:10:18
    Ответить
    Теперь понятно, почему раскрываемость кибер-преступлений всего 0,2%
    • Патамучта
      25 февр. 2018 г., 9:41:07
      Ответить
      Нужен хороший Антивирус и мощную прививку от коррупции.
      • Лох-у
        25 февр. 2018 г., 10:19:14
        Ответить
        Лох, он и кибер-лох!!!
        Антивирус - это ЗЛО.
  • Чип
    25 февр. 2018 г., 9:17:44
    Ответить
    Компьютер компьютеру глаз не выклюет.
  • :-(
    25 февр. 2018 г., 9:18:58
    Ответить
    "Скайнет" выходит на тропу войны?
    И когда он заработает в рабочем режиме, тогда оценит, что главную угрозу для него представляют русские ракеты...
  • ии
    25 февр. 2018 г., 9:36:56
    Ответить
    искусственный интеллект мыслит как его создатели, яблоко от яблони не далеко падает. Если человек думает как преступник, чего же ждать от ИИ?
    • неее
      25 февр. 2018 г., 12:14:48
      Ответить
      ИИ учиться в интернете Как ведёт себя большинство так и оно.
  • Саахов и Джабраилов
    25 февр. 2018 г., 9:42:47
    Ответить
    Кто нам мешает- тот нам и поможет.
  • Да
    25 февр. 2018 г., 9:57:50
    Ответить
    Бред сивой кобылы
  • инженер
    25 февр. 2018 г., 11:07:33
    Ответить
    цену набивают пасаны
    наше все - выпускник ускоренных бухгалтерских курсов Греф говорит что все ОК и то что бабки на полу валяются, кто первый поднимет, тот и Морган. Нет причин не верить нашему гуру
  • Это не искусственный интеллект мыслит как преступник.
    25 февр. 2018 г., 14:52:04
    Ответить
    Это создатели с преступными наклонностями программируют "искусственность" по своему образу и подобию.
  • а
    25 февр. 2018 г., 20:18:38
    Ответить
    у нас скоро пенсии будет назначать искусственный интеллект так сказал Дроздов на сочинском форуме
  • Не путайте и не подменяйте понятия
    26 февр. 2018 г., 0:22:38
    Ответить
    Где тот ИИ???
    Откуда ему взяться? Нет ещё его,не создан. Пока есть только то, чем управляет человек. Так шта все предъявы- создателям и авторам программ. Нет никого и ничего страшнее человека!
    • Vova
      26 февр. 2018 г., 7:27:48
      Ответить
      Человеки
      Не блещут человеки интеллектом.
      А зверского в них некуда девать. Теперь вот додумались и компьютеры растлить...