Обработка биоданных вместо маркировки

От возможных негативных последствий работы искусственного интеллекта люди пока защищены плохо, считают участники конференции «Цифровая безопасность», прошедшей 3 апреля в КВЦ «Экспофорум» в рамках Форума «ЭКСПОТЕХНОСТРАЖ-2024». Маркировку контента, произведенного ИИ, большинство из них назвало не лучшей идеей.

Защититься от дипфейков и прочих фальсификаций, которые способны сгенерировать нейросети, пользователи пока не готовы — к такому выводу пришло большинство участников пленарного заседания «Щит и меч цифрового мира». «Атакующие технологии ИИ превосходят защитные, так как защита, как правило, опирается на людей, пояснил эксперт по информационной безопасности, технический директор Weblock Лука Сафонов. «ИИ может нагенерить столько сценариев, что человек за ними просто не уследит», — считает он.

Вице-губернатор Санкт-Петербурга Станислав Казарин заметил, что для противодействия фейкам государство, в частности, стимулирует пользователей к переходу на российские платформы, где процесс «хоть как-то можно контролировать». На иностранных платформах пользователи не защищены, например, от фейков западных спецслужб.

В ходе обсуждения участники высказали мнения по поводу  идеи о маркировке контента, произведенного с помощью ИИ. В частности, Лука Сафонов считает, что любые маркеры начнут вызывать доверие у пользователей, а их можно будет фальсифицировать. Руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров также выступил против маркировки. Он предложил собирать согласие пользователей на обработку биоданных, таких как голос и другие уникальные особенности человека, позволяющих подделать его образ.

Все новости

Обработка биоданных вместо маркировки

От возможных негативных последствий работы искусственного интеллекта люди пока защищены плохо, считают участники конференции «Цифровая безопасность», прошедшей 3 апреля в КВЦ «Экспофорум» в рамках Форума «ЭКСПОТЕХНОСТРАЖ-2024». Маркировку контента, произведенного ИИ, большинство из них назвало не лучшей идеей.

Защититься от дипфейков и прочих фальсификаций, которые способны сгенерировать нейросети, пользователи пока не готовы — к такому выводу пришло большинство участников пленарного заседания «Щит и меч цифрового мира». «Атакующие технологии ИИ превосходят защитные, так как защита, как правило, опирается на людей, пояснил эксперт по информационной безопасности, технический директор Weblock Лука Сафонов. «ИИ может нагенерить столько сценариев, что человек за ними просто не уследит», — считает он.

Вице-губернатор Санкт-Петербурга Станислав Казарин заметил, что для противодействия фейкам государство, в частности, стимулирует пользователей к переходу на российские платформы, где процесс «хоть как-то можно контролировать». На иностранных платформах пользователи не защищены, например, от фейков западных спецслужб.

В ходе обсуждения участники высказали мнения по поводу  идеи о маркировке контента, произведенного с помощью ИИ. В частности, Лука Сафонов считает, что любые маркеры начнут вызывать доверие у пользователей, а их можно будет фальсифицировать. Руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров также выступил против маркировки. Он предложил собирать согласие пользователей на обработку биоданных, таких как голос и другие уникальные особенности человека, позволяющих подделать его образ.

Все новости