Мошенничество в эпоху искусственного интеллекта

Итак дождались, Вас вызвали в суд, где предъявили массу доказательств, включая телефонные звонки, рукописные заметки, сообщения электронной почты и журналы чатов, которые неоспоримо доказывают вашу причастность к преступлению.

Проблема состоит в том, ни одно из этих доказательств к вам не имеют никакого отношения. Это результат работы мастерски придуманных алгоритмов искусственного интеллекта, основанных на тщательном изучении вашего профиля.

Это не отрывок из Blade Runner. Это здесь и сейчас. Разработки в области искусственного интеллекта помогают многое революционизировать, например, голосовые коммуникации. Однако, одна и та же технология может стать инструментом вторжения в вашу частную жизнь, может способствовать мошенничеству.

Вот некоторые примеры того, как мошенники в ближайшем будущем смогут использовать искусственный интеллект (ИИ) в злонамеренных целях.

Подделка почерка

В старые добрые времена, имитация почерка и подписи была сродни подвигу, требующего мастерства и практики. Сейчас это не так! При использовании алгоритма ИИ, разработанного учеными Университетского колледжа Лондона (UCL). Алгоритму My Text in your Handwriting (Мой текст вашим почерком) достаточно всего лишь одного абзаца вашей рукописи, что-бы изучить почерк. После этого любой текст может быть написан этим вашим почерком. Это самая точная репликация человеческого почерка на сегодняшний день.

В качестве положительного аспекта можно отметить возможность использования алгоритма жертвами инсульта, что бы избежать неразборчивости письма. Кроме того, его можно применять в переводах комиксов для сохранения оригинальности стиля автора.

Однако, злодеи могут воспользоваться возможностями этой технологии. Учитывая поразительную точность, алгоритм может стать инструментом подлога правовых и финансовых документов, что, возможно, изменит историю. Например, разработчики смогли повторить почерк Авраама Линкольна, Фрида Кало и Артура Конан Дойля.

Исследователи утверждают, что судебно-медицинской экспертиза не найдёт разницу с оригиналом. И с каждым годом это будет сделать труднее так, как программное обеспечение не стоит на месте и становится все более продвинутым.

Искусственный диалог

Всё чаще и чаще на многих сайтах встречаются чат-боты, которые идут своей дорогой. Благодаря искусственному интеллекту, они с успехом обеспечивают правдоподобное общение на основе естественного опыта. Но что произойдёт, если они станут слишком реалистичными?

В прошлом году, компания Luka создала приложение для обмена сообщениями, скопированное с героев шоу HBO’s Silicon Valley. Нейронные сети приложения использовали сценарий первых двух сезонов шоу в качестве образцов персонажей. Затем были созданы боты, которые говорили от лица фактических вымышленных персонажей.

Конечно диалогов двух сезонов не достаточно для эффективного обучения чат-ботов, но идея опробована и доказана возможность её реализации.

Несколько месяцев спустя компания, используя ту же технику, фактически вернула мертвеца к жизни. Используя в качестве входной информации для алгоритма текстовые сообщения, разговоры в социальных медиа и прочие источники, инженерам Luka удалось создать чат-бота, заменяющего умершего соучредителя компании.

Luka хочет делать роботов, которые имитируют реальных людей. Новые поколения создают всё больше и больше цифрового контента и поставленная цель становится достижимой. Но такие чат-боты полезны до тех пор, пока находятся в пределах нашего контроля.

Мошенники могут использовать ту же технику для вредоносных целей. Так, например, фишинг-хакеры обычно тратят недели и месяцы для обучения и имитации привычек своих объектов атаки. Постесняются они использовать ИИ и машинное обучение в качестве своих инструментов?

Подмена голоса

TNW недавно опубликовала отчет о компании ИИ Lyrebird, в которой научились синтезировать речь любым голосом, используя всего одну минуту записи оригинала. Образцы, опубликованные на сайте компаний довольно показательны.

WaveNet Google предоставляет аналогичную функциональность. Однако, требует гораздо более длительных обучающих фрагментов. Но, правда, звучание получается устрашающе реалистичным. Как вы уже догадались, базовая технология — нейронные сети.

Дело в том, что технология развивается ускоренными темпами. И как предупреждают основатели Lyrebird’s возможность подмены голоса в аудиозаписи вычеркивает её из списка надежных доказательств.

Если сложить всё вместе, голос, почерк и имитацию голоса, то можно сделать очень много и хорошего, и плохого. Мы входим в эру, где охрана каждого бита информации о Вас будет центральным вопросом личной безопасности.

Источник: This is what fraud looks like in the age of Artificial Intelligence

CC BY-NC 4.0 Мошенничество в эпоху искусственного интеллекта, опубликовано waksoft, лицензия — Creative Commons Attribution-NonCommercial 4.0 International.


Респект и уважуха

Добавить комментарий