Изкуствен интелект: Да те изнасилят психически чрез фалшиво порно и изнудване


Изкуствен интелект: Да те изнасилят психически чрез фалшиво порно и изнудване
Снимка: Getty Images/Guliver

6770

Приложения за снимки, които дигитално събличат жени, подкани за сексуално преобразуване на текст към изображение, създаващи "момичета с изкуствен интелект" и манипулирани изображения, които подхранват сексуалния рекет – бумът на фалшивото порно изпреварва усилията на САЩ и Европа за регулиране на технологията, предаде АФП.

Така нареченият дийпфейк (технология, с която се създават изображения и видеа на база реални кадри, извършващи действия, които изобразените реални обекти никога не са правили - бел. ред.) с активиран изкуствен интелект (ИИ) обикновено се свързва с фалшиви изображения на добре известни личности като папа Франциск в пухено палто или арестуван Доналд Тръмп, но експертите казват, че ИИ се използва по-широко за генериране на порнография без съгласие, която може да унищожи обикновения живот.

Опасността

Жените са особена мишена на инструментите и приложенията за изкуствен интелект – широко достъпни безплатно и не изискващи технически познания, които позволяват на потребителите цифрово да събличат дрехите от снимки или да вмъкват лицата в сексуални видеоклипове.

"Нарастването на генерираното от изкуствен интелект порно и дийпфейк порно нормализира използването на изображение или подобие на жена без нейното съгласие. Какво послание изпращаме за съгласието като общество, когато можете на практика да съблечете всяка жена?", казва Софи Мадокс, изследовател в Университета на Пенсилвания, проследяващ сексуално насилие, базирано на изображения.

Във видеоклип американски стриймър в Twitch, който се нарича QTCepelaga, се оплака през сълзи за "постоянната експлоатация и обективизиране" на жените, тъй като е станала жертва на подобен случай и е била тормозена. Скандалът избухна през януари по време на предаване на живо от колегата стриймър Брандън Юинг, който беше хванат да разглежда уебсайт, съдържащ дълбоко фалшифицирани сексуални изображения на няколко жени, включително QTCinderella.

ОЩЕ: Водещи компании маркират с "водни знаци" на генерираното от изкуствения интелект съдържание

Хиперреален

Разпространението на фалшификации онлайн подчертава заплахата от дезинформация, активирана от ИИ, която може да навреди на репутацията и да доведе до малтретиране или тормоз. Докато известни личности като певицата Тейлър Суифт и актрисата Ема Уотсън са били жертви на фалшиво порно, жените, които не са известни, също са в опасност.

Американските и европейските медии са пълни със свидетелства от първа ръка на жени – от учени до активистки – които са били шокирани да открият лицата си във фалшиви кадри. Около 96% от подобните фалшиви видеоклипове онлайн са порнография без съгласие и повечето от тях изобразяват жени, според проучване от 2019 г. на холандската компания за изкуствен интелект Sensity.

"Лекотата на достъп и липсата на надзор – заедно с нарастващата професионализация на индустрията – вкоренява тези технологии в нови форми на експлоатация и унижаване на жените", смята Роберта Дъфийлд, директор на разузнаването в Blackbird.AI.

Сред новата "реколта" от генератори на текст към изкуство са безплатни приложения, които могат да създават "хипер-реални момичета“ – аватари от реални снимки, персонализирайки ги с подкани като "тъмна кожа" и "каишка за бедро".

Нови технологии като Stable Diffusion, модел на ИИ с отворен код, разработен от Stability AI, направиха възможно създаването на реалистични изображения от текстови описания.

ОЩЕ: Изкуствен интелект създаде пищна двойничка на Шакира и побърка TikTok (ВИДЕО)

Тъмната страна на изкуствения интелект

Технологичният напредък доведе до това, което Дъфийлд нарича "разширяваща се домашна индустрия" за порното, създадено с ИИ, като много създатели на диийпфейкове приемат платени заявки, за да генерират съдържание, включващо човек по избор на клиента.

Миналия месец ФБР издаде предупреждение за схеми за сексуално изнудване, при които измамниците заснемат снимки и видеоклипове от социалните медии, за да създадат фалшиви изображения със сексуална тематика, които след това се използват за изнудване за пари. Жертвите, посочва ФБР, включват непълнолетни деца и несъгласни възрастни.

Разпространението на инструментите на ИИ изпревари регулацията.

"Това не е някакъв тъмен ъгъл на интернет, където тези изображения се създават и споделят. Това е точно под носа ни. И да, законът трябва да навакса", заяви Дан Пърсел, главен изпълнителен директор и основател на компанията за защита на марките на ИИ Ceartas.

Във Великобритания правителството предложи нов законопроект за онлайн безопасността, който се стреми да криминализира споделянето на порнографски фалшификати. Четири американски щата, включително Калифорния и Вирджиния, забраниха разпространението на фалшиво порно генерирано от технологията, но жертвите често нямат много правна защита, ако извършителите живеят извън тези юрисдикции.

През май американски законодател предложи закон за предотвратяване на дийпфейк на интимни изображения, който ще направи незаконно споделянето на подобна порнография без съгласие. Популярни онлайн пространства като Reddit също се опитаха да регулират своите процъфтяващи порно общности с изкуствен интелект.

"Интернет е една юрисдикция без граници и трябва да има единно международно право, което да защитава хората срещу тази форма на експлоатация", обобщи Пърсел.

ОЩЕ: Изкуственият интелект в Китай: Да отговаря на основните социалистически ценности

Още от Иновации и наука


Помогнете на новините да достигнат до вас!


Радваме се, че си с нас тук и сега!

Посещавайки Expert.bg, ти подкрепяш свободата на словото.

Независимата журналистика има нужда от твоята помощ.

Всяко дарение ще бъде предназначено за неуморния екип на Expert.bg.

Банкова сметка

Име на получател: Уебграунд Груп АД

IBAN: BG16UBBS80021036497350

BIC: UBBSBGSF

Основание: Дарение за Expert.bg

Sportlive.bg
Реклама

Валути

BNB Logo
  • EUR
    1
    1.955
  • USD
    1
    1.82447
  • GBP
    1
    2.28771
  • JPY
    100
    1.16745
виж всички
Реклама

Най-четени новини


виж всички