Искусственный интеллект перестал быть чем‑то далеким и академическим, он уже рядом, причем ближе, чем нам кажется, хотя на улице то и дело можно услышать стереотипное высказывание: «Пока это до нас дойдет…». Несомненно, есть плюсы, их уже озвучивала раньше: ИИ помогает своими инструментами врачам и творческим людям, автоматизирует рутину, создает контент. Но
одновременно он порождает новые вызовы и угрозы. Среди всплывающих проблем –
дипфейки, искажение информации и риски для персональных данных. Об этом все громче говорят
эксперты, приятно, что к ним присоединилось и правительство, ведь в нашей стране законодательные акты, которые регламентируют сферу ИИ, еще не приняты. А последствия порой выходят за рамки технологий и подрывают доверие к медиа, бизнесу и институтам власти.

Возможно, кому-то будет не совсем понятно, что за дипфейки нас атакуют. Это медиафайлы (видео, аудио либо изображения), сгенерированные или измененные с помощью искусственного интеллекта так, что выглядят правдоподобно и могут вводить в заблуждение. Современные инструменты позволяют создавать материалы быстро и недорого, поэтому вопрос не только в доступности технологий, но также в массовом характере их применения и скорости распространения информации.
ИИ порождает одновременно и удобство, и новые формы мошенничества: от фейковых видео политиков до аудио‑сообщений от имени родственников, требующих деньги. Дипфейки могут подорвать доверие к СМИ и власти, использоваться для дезинформации и манипуляции.
Далеко ходить не надо: в начале текущей недели в интернете появилось видео с участием председателя Гомельского облисполкома Ивана Крупко. В ролике утверждалось, будто за последний месяц Беларусь отправила в Россию 99 эшелонов с топливом. При этом внимание акцентировалось на том, что братская держава якобы оказалась в «тяжелейшей ситуации из‑за действий Запада и киевского режима» и срочно нуждается в поставках. Это не просто ложь в интернете, а яркий пример того, как одна картинка или монтаж могут запустить цепочку эмоций и действий. А эмоции, к сожалению, часто сильнее фактов. И прозвучали слова из уст узнаваемого человека. Тревога и страх не у всех и не сразу уступят место правдивым сухим опровержениям.
Каждая криминальная хроника не обходится без новости о новых случаях мошенничества с поддельными голосами и видео, когда дети попадают в беду и просят помощи. Финансовой, конечно. Опять же, на эмоциях, в страхе родители делают опрометчивые поступки, ведь их сердца о деньгах думают в последний момент, у всех одна мысль в голове: лишь бы у ребенка все было хорошо!
В нашей стране заметна активность как в тревоге по поводу дипфейков, так и в попытках практической работы с этой проблемой: средства массовой информации и IT‑сообщество фиксируют случаи мошенничества с использованием сгенерированных материалов, рассматриваются вопросы ответственности и просвещения аудитории.  Уязвимы не только публичные фигуры, но и обычные люди, поэтому решение должно быть комплексным и включать правовую, техническую и образовательную стороны. В том числе нужны гибкие нормы, которые учитывают скорость развития технологий, начиная от правил маркировки ИИ‑контента до усиления ответственности за мошенничество и злоупотребления. Законодательство должно сочетаться с практическими стандартами отрасли и международным сотрудничеством.  
Радует, что проблема не остается незамеченной: на экспертных площадках все чаще обсуждают, как сочетать защиту безопасности и развитие технологий. Недавно  на глаза попалась новость о выездном заседании экспертно‑консультативного характера под руководством Председателя Совета Республики Национального собрания Беларуси Натальи Кочановой. Там как раз поднимались вопросы, связанные с угрозами и вызовами цифровой эпохи. Это показывает: о теме, которая может подорвать безопасность,  начинают говорить и искать решения на разных уровнях. Это правильно. Чем быстрее общество научится сочетать потенциал ИИ с грамотной защитой, тем менее болезненно пройдет переход к новой цифровой реальности.
Хотя дело же не столько в технологиях, сколько в людях, которые используют ее в плохих, злых или корыстных целях. И еще: страх является очень удобной валютой для манипуляторов. Не отдавайте ее в обмен на сенсации, лучше потратьте пару минут на перепроверку информации, этим сохраните спокойствие себе и близким. Берегите себя!

Елена ШЕВЦОВА.

Недостаточно прав для комментирования. Войдите на сайт используя социальные сети.

Войти с помощью

 


  

Яндекс Реклама