Итак дождались, Вас вызвали в суд, где предъявили массу доказательств, включая телефонные звонки, рукописные заметки, сообщения электронной почты и журналы чатов, которые неоспоримо доказывают вашу причастность к преступлению.
Проблема состоит в том, ни одно из этих доказательств к вам не имеют никакого отношения. Это результат работы мастерски придуманных алгоритмов искусственного интеллекта, основанных на тщательном изучении вашего профиля.
Это не отрывок из Blade Runnerએ. Это здесь и сейчас.
Вот некоторые примеры того, как мошенники в ближайшем будущем смогут использовать искусственный интеллектએ (ИИ) в злонамеренных целях.
Подделка почерка
В старые добрые времена, имитация почерка и подписи была сродни подвигу, требующего мастерства и практики. Сейчас это не так! При использовании
В качестве положительного аспекта можно отметить возможность использования алгоритма жертвами инсульта, что бы избежать неразборчивости письма. Кроме того, его можно применять в переводах комиксов для сохранения оригинальности стиля автора.
Однако, злодеи могут воспользоваться возможностями этой технологии. Учитывая поразительную точность, алгоритм может стать инструментом подлога правовых и финансовых документов, что, возможно, изменит историю. Например, разработчики смогли повторить почерк Авраама Линкольна, Фрида Кало и Артура Конан Дойля.
Исследователи утверждают, что судебно-медицинской экспертиза не найдёт разницу с оригиналом. И с каждым годом это будет сделать труднее так, как программное обеспечение не стоит на месте и становится все более продвинутым.
Искусственный диалог
Всё чаще и чаще на многих сайтах встречаются чат-боты, которые идут своей дорогой. Благодаря искусственному интеллекту, они с успехом обеспечивают правдоподобное общение на основе естественного опыта. Но что произойдёт, если они станут слишком реалистичными?
В прошлом году, компания Luka создала приложение для обмена сообщениями, скопированное с героев шоу
Конечно диалогов двух сезонов не достаточно для эффективного обучения чат-ботов, но идея опробована и доказана возможность её реализации.
Несколько месяцев спустя компания, используя ту же технику, фактически
Luka хочет делать роботов, которые имитируют реальных людей. Новые поколения создают всё больше и больше цифрового контента и поставленная цель становится достижимой. Но такие чат-боты полезны до тех пор, пока находятся в пределах нашего контроля.
Мошенники могут использовать ту же технику для вредоносных целей. Так, например,
Подмена голоса
TNW недавно
Дело в том, что технология развивается ускоренными темпами. И как
Если сложить всё вместе, голос, почерк и имитацию голоса, то можно сделать очень много и хорошего, и плохого. Мы входим в эру, где охрана каждого бита информации о Вас будет центральным вопросом личной безопасности.
Источник:
Мошенничество в эпоху искусственного интеллекта, опубликовано К ВВ, лицензия — Creative Commons Attribution-NonCommercial 4.0 International.
Респект и уважуха