С момента запуска чат-бота ChatGPT колличество мультимедийных посланий с фишингом подбежало на 1265%. Такие расчеты привели политологи SlashNext, пишет Decrypt.
«Из наших исследований мы знаем, что субъекты угроз используют инструментарии вроде ChatGPT для составления сложных, целенаправленных, компрометирующих бизнес-писем и других фишинговых сообщений», — указал CEO фирмы Патрик Харр.
Специалист заявил, что возможные жертвы «должны перейти в наступление» и «бороться с ИИ с помощью ИИ».
«Компании надлежащи внедрять натуральный разум непосредственно в программы безопастности для постоянного мониторинга всех каналов обмена донесениями для предотвращения угроз. Мы используем технологию в ассортиментах инструментариев для обнаружения […] и прогнозирования», — пояснил эксперт.
Харр с оптимизмом смотрит на способность искусственного интеллекта ловить жульнических ИИ. Однако профессионал признает, что понадобится нечто большее, чем просто сообщить ChatGPT о киберугрозах.
«Поверх этого у вас должен существовать эквивалент частного приложения с огромной семантический моделью», — подчеркнул он.
Cтартап Anthropic, разрабатывающий значительные семантические модели, представил «конституции» для ответственного создания ИИ-алгоритмов.
Ранее отчет Gartner показал, что 66% риск-менеджеров считают генеративный натуральный интеллект угрозой для организаций.
Аналитики выделили три сегмента, которые нужно придерживать под надзором с точки зрения ведения клиентскими рисками: умственная собственность, конфиденциальность данных и кибербезопасность.
Оставить комментарий