Метка: искусственный интеллект

  • Когда правосудие терпит неудачу: почему женщины не могут получить защиту от искусственного интеллекта

    Когда правосудие терпит неудачу: почему женщины не могут получить защиту от искусственного интеллекта

    По данным организации «ООН-женщины», жестокое обращение с ИИ-фейками — это не узкая проблема Интернета, а глобальный кризис. Когда правосудие терпит неудачу: почему женщины не могут получить защиту от ИИ-фейкового закона о борьбе с ИИ-фейками и предупреждении преступности. Пока она спала, распространились ее сфабрикованные изображения, сексуализированные и вирусные.

    Слухи преследовали ее в автономном режиме. В Интернете насилие распространялось бесконтрольно: комментарии, насмешки, публикации, скриншоты. Она никогда не соглашалась ни на что из этого. Это никого не остановило.

    Через несколько минут контент увидели тысячи людей. Через несколько часов — миллионы.

    Кошмар только начинался.

    Прошло несколько дней, прежде чем платформы отреагировали. К тому времени снимки были просмотрены, сохранены и воспроизведены. У нее возник вопрос: кому мне сообщить об этом? Поверит ли мне кто-нибудь? Столкнутся ли люди, которые это сделали, с последствиями? Или вина ляжет на меня?

    Это реальность для тысяч женщин и девочек каждый божий день. Подделки с помощью искусственного интеллекта разрушают реальные жизни, а правосудие остается недосягаемым для большинства выживших.

    Ее история может стать вашей.

    Фейковое насилие — это острие гораздо более широкой модели цифрового насилия, направленного против женщин и девочек. Оно носит гендерный характер и усиливается. Прямо сейчас системы, предназначенные для защиты людей, выходят из строя, в то время как средства причинения вреда с каждым днем становятся дешевле, быстрее и проще в использовании.

    Вот что вам нужно знать:

    Что такое злоупотребление глубокими подделками и насколько оно распространено?

    Глубокие подделки — это изображения, аудио или видео, обработанные искусственным интеллектом (ИИ), которые создают впечатление, что кто-то сказал или сделал что-то, чего он никогда не делал.

    Сама по себе технология не нова, но ее использование в качестве оружия против женщин и девочек — это новое явление, и оно быстро набирает обороты.

    • поддельная порнография составляет 98% всех поддельных видео в Интернете, и в 99% из них изображены женщины, согласно отчету за 2023 год.
    • по оценкам, в 2023 году количество видео-подделок было на 550 % больше, чем в 2019 году
    • инструменты для их создания широко доступны, обычно бесплатны и требуют очень небольшого технического опыта
    • <после публикации контент, созданный с помощью искусственного интеллекта, может бесконечно тиражироваться, сохраняться на личных устройствах и распространяться на разных платформах, что делает практически невозможным его полное удаление.

    Почему выжившие не сообщают и что происходит, когда они это делают.

    Занижение отчетности является одним из самых серьезных препятствий на пути к подотчетности. Для выживших, которые все же заявляют о себе, система правосудия часто становится еще одним источником травм.

    • Выживших неоднократно просят просмотреть и описать оскорбительный контент в полиции, адвокатах и модераторах платформы, при этом часто задают вопросы типа: “Вы уверены, что это неправда?” или “делились ли вы интимными снимками раньше?”
    • Если дело доходит до суда, то их одежда, отношения и поведение в прошлом рассматриваются под микроскопом, а не сам преступник.
    • По данным организации «ООН-женщины», вред, причиненный преступнику, не остается в Сети. опрос, в ходе которого выяснилось, что 41% женщин, участвующих в общественной жизни и подвергшихся цифровому насилию, также сообщили, что сталкивались с атаками в интернете или связанными с этим домогательствами

    Почему создатели фейков редко предстают перед судом

    Несмотря на масштаб ущерба, судебные преследования редки, платформы обычно бездействуют, а пострадавшие часто получают повторную травму, когда пытаются обратиться за помощью. И вот почему:

    закон не догнал и nbsp;как менее чем в половине стран вы есть законы, которые призваны решать онлайн злоупотреблений и еще меньше имеют законодательство, а ИИ автоматически deepfake контент

    • большинство “порноместь” или на основе изображений нарушении законов были написаны до deepfakes существовал, не оставляя лазеек
    • во многих странах, deepfake порно или AI автоматически обнаженные изображения попадают в правовой «серой зоны»
    • выжившие уверены в том, что при злоупотреблении даже незаконными и могут ли виновные лица могут быть привлечены к ответственности
    • ул><п>применение отстает и nbsp;это потому, что даже если законы существуют, исследователи должны цифровой криминалистической экспертизы, трансграничная координация и платформы для сотрудничества, чтобы построить случай, в то время как большинство систем правосудия не располагает достаточными ресурсами для решения любой из этих

      • доказательства исчезает быстро, как распространяется контент и копии размножаться, преступники прикрываются анонимностью или работать в разных юрисдикциях
      • платформы медленно или не хотят делиться данными с правоохранительными органами, особенно в случаях трансграничного
      • цифровой криминалистики задержек имею в виду случаи стойло, прежде чем они даже начать
      • ул><п>техника платформ не выживших как они уже давно скрываются за “промежуточные” состояния, чтобы избежать ответственности за контент, созданный пользователями.

        • снятие нагрузки на выживших-Это нереально жестоко, как они ожидали, чтобы отследить каждую копию своего неконсенсусного изображений на различных платформах и сохранить о них, в то время как содержание продолжает расти
        • платформы медленно, чтобы удалить оскорбительный контент
        • технологические компании часто имеют непрозрачные и противоречивые представления отчетности, дать автоматическое отклонение запросов демонтаж и предлагают практически нет сотрудничества с правоохранительными

          When justice fails: Why women can’t get protection from AI deepfake abuse

          Во всем мире растет число случаев онлайн-насилия в отношении женщин.

        Что должно произойти сейчас

        Несмотря на то, что ряд стран и регионов принимают меры (см. текстовое поле ниже), прекращение злоупотребления глубокими подделками требует срочных скоординированных действий со стороны правительств, учреждений и технологические платформы.

        Вот пять вещей, которые должны произойти:

        1. Законы, которые на самом деле охватывают злоупотребление глубокими подделками

        Правительства должны принять законодательство с четкими определениями злоупотреблений, вызванных искусственным интеллектом, и уделить особое внимание согласию, строгой ответственности виновных, обязательствам по ускоренному удалению для платформ и трансграничным протоколам обеспечения соблюдения.

        2. Системы правосудия, способные проводить расследования и привлекать к ответственности виновных

        Правоохранительным органам необходимы подготовка кадров, ресурсы и специальные возможности для сбора и сохранения цифровых доказательств, а также для решения проблем, связанных с цифровой судебной экспертизой, при этом механизмы международного сотрудничества становятся быстрыми, функциональными и отвечающими поставленным целям.

        3. Платформы, привлекаемые к ответственности

        Технологические компании должны быть юридически обязаны активно отслеживать и удалять оскорбительный контент в установленные сроки, сотрудничать с правоохранительными органами и сталкиваться с реальными финансовыми последствиями в случае бездействия.

        4. Пострадавшим должна быть предоставлена реальная поддержка

        Обученные, знающие о травмах сотрудники правоохранительных органов и юристы, а также бесплатная юридическая помощь.

        5. Обучение, предотвращающее жестокое обращение

        Цифровая грамотность, включая просвещение по вопросам согласия, безопасности в Интернете и того, что делать, когда сталкиваешься с жестоким обращением, должна начинаться с раннего возраста и охватывать всех, поскольку профилактика так же важна, как и судебное преследование.

        не проблема сети, но глобальный кризис

        в ООН предупреждает женщин это не проблема нишу интернете: “это глобальный кризис.”

        • в недавнем громком деле, Великобритании, журналистка Дейзи Диксон обнаружил ИИ автоматически, сексуализированных образов себя на Х в декабре 2025, созданные с помощью платформы собственного Грок Ай инструмент; потребовалось несколько дней для платформы, чтобы геоблок функцию, в то время как злоупотребление продолжала распространяться
        • deepfake злоупотребления может служить онлайн катализатором так называемой “чести преступлений” в определенных культурных контекстах, где предполагаемая нарушение честь норм о цифровых платформ может повлечь за экстремального физического насилия в отношении женщины, или даже смерти.
        • более половины deepfake жертв в Соединенных Штатах Америки подумывал о самоубийстве, и nbsp;Согласно недавнему исследованию
        • ул><п>тем временем, несколько стран уже начинают действовать:

          • Бразилия поправки в свой Уголовный кодекс в 2025 году увеличение штрафа за причинение психологического насилия в отношении женщин, использующих ИИ и другие технологии, чтобы изменить свой имидж или голос
          • кнопки Европейский Союз искусственный интеллект (ИИ) закон накладывает обязательства по транспарентности вокруг deepfakes
          • кнопки Соединенное Королевствос безопасностью в Интернете, закон запрещает обмена цифровой обработке откровенных изображений, но ничего не говорится о создании deepfakes и не могут применяться, если целью причинить страдания, не могут быть подтверждены
          • кнопки США принять его поступок явно покрывает ИИ автоматически интимные снимки и требуется платформа удаление в течение 48 часов
          • ул>

    Источник

    Средний рейтинг
    0 из 5 звезд. 0 голосов.
  • ‘Индийский ребенок с искусственным интеллектом» призывает молодежь приобщаться к технологиям

    Рауль Джон Аджу, 16-летний технический вундеркинд из Кочи, штат Керала, который стал заметной фигурой в области искусственного интеллекта в Индии. ‘AI Kid of India» призывает молодежь приобщаться к технологиям Автор Аншу Шарма Культура и образование

    16-летний Рауль Джон Аджу, получивший прозвище «the “Индийский ИИ–кид” на родине — это вундеркинд в бизнесе, который консультирует правительство и промышленность и создал несколько инновационных инструментов ИИ. 

    На недавнем индийском саммите по ИИ Рауль рассказал Новостям ООН , что движет его страстью к ИИ. технология и почему мы должны в полной мере использовать ее.

    Рауль, в основном самоучка, в возрасте 12 лет построил своего первого робота и разработал более 10 инструментов искусственного интеллекта. Он консультировал правительства Кералы и Дубая по вопросам интеграции искусственного интеллекта в государственные службы и является основателем компании AI Realm Technologies.Достижения Рауля привели к выступлениям в крупных технологических компаниях и приглашениям на международные конференции, такие как Индийский саммит по искусственному интеллекту 2026 года в Нью-Дели, где он был представлен специальному посланнику ООН по цифровым и новым технологиям Амандипу Гиллу, а также Генеральный секретарь ООН Антониу Гутерриш.После организованной ООН панельной дискуссии на тему искусственного интеллекта и безопасности детей, на которой Рауль выступил со вступительной речью, он встретился с Аншу Шармой из UN News, чтобы поговорить о своей деловой поездке, надеждах на будущее и о том, как молодым людям лучше взаимодействовать с AI.

    <ширина iframe=»600″ height=»400″ прокрутка=»нет» рамка =»нет» src=»https://w.soundcloud.com/player/?url=https%3A//api.soundcloud.com/tracks/2272643171&visual=&auto_play=false&hide_related=true&show_artwork=true&show_playcount=false&show_comments=false&show_user=false&show_reposts=false&download=false&buying=false&sharing=false&show_teaser=false&single_active=true&color=%23ff5500 «заголовок=»медиа:soundcloud:8a91d8ff-ca87-45a8-a989-cc3b9912633c»>

    Это интервью было отредактировано для большей ясности и объема

    Новости ООН: Почему вы заинтересовались технологиями? 

    Рауль Джон Аджу: Я открыл для себя технологию редактирования видео. Когда мой отец устроился на работу в Adobe, я получил бесплатный доступ ко всем инструментам премиум-класса и смог узнать больше об искусственном интеллекте. После этого я создал своего робота [известного как MeBot, созданного для школьного научного проекта].

    ИИ-кид Индии”, Рауль Джон Аджу, с заместителем Генерального секретаря ООН и специальным посланником по цифровым и новейшим технологиям Амандипом Сингхом Гиллом, после параллельной сессии ODET на саммите AI Impact Summit 2026 в Индии.

    “ИИ-кид Индии” Рауль Джон Аджу вместе с заместителем Генерального секретаря ООН и специальным посланником по цифровым и новейшим технологиям Амандипом Сингхом Гиллом после совместного выступления на саммите AI Impact Summit 2026 в Индии.

    Новости ООН: Как вы пришли к созданию собственной компании?

    Рауль Джон Аджу: Основная причина заключалась в том, что я хотел, чтобы все инструменты, которые я создавал, были под одной торговой маркой. Я также хотел создать платежную систему, которая облегчила бы жизнь людей, чтобы они могли просто использовать QR-код для оплаты товаров, если у них нет кредитной или дебетовой карты.

    Новости ООН: Расскажите мне о некоторых ваших инновациях в области искусственного интеллекта .Рауль Джон Аджу (Raul John Aju): Один из них — инструмент искусственного интеллекта для спасения. Идея заключается в том, что, если вы окажетесь в чрезвычайной ситуации, инструмент подскажет вам, что делать и какие законы применяются. Это свяжет вас с юристом, а также поможет юристу разработать стратегию для выигрыша дела, проанализировав тысячи похожих дел. 

    Еще один проект — ThinkCraft Academy, где вы можете перейти от изучения искусственного интеллекта к созданию собственных инструментов для его использования. в повседневной жизни. Курсы бесплатны, и более семи миллионов человек смогли на них поучиться.

    Новости ООН: Ваше решение нанять собственного отца привлекло много внимания. Что вы думали, стоя за этим?

    Рауль Джон Аджу: Я могу получить столько знаний, сколько захочу, с помощью своего телефона, но у меня нет его опыта. Он работал в таких компаниях, как Amazon, Adobe, Wipro и IBM, так что я могу у него поучиться. Кроме того, честно говоря, это пошло на пользу моему маркетингу!

    Новости ООН: Вы научили многих студентов. На что был похож этот опыт?

    Рауль Джон Аджу: Я говорю им, что хочу, чтобы все они начали использовать искусственный интеллект, но в то же время не забывали о человеке внутри них. Я всегда говорю, что самый важный навык в мире искусственного интеллекта — быть максимально похожим на человека.

    Рауль Джон Аджу на мероприятии TEDx

    Рауль Джон Аджу на мероприятии TEDx.

    Новости ООН: Где вы видите себя в ближайшие 10 лет?

    Я действительно хочу иметь достаточно денег, чтобы иметь возможность купить все, что я захочу, для своих родителей или для себя. В то же время я хочу, чтобы мои инструменты облегчали повседневную жизнь людей. Я также хочу провести время на Западе и продолжать учиться.

    Новости ООН: Как бы вы подвели итоги своего путешествия?

    Рауль Джон Аджу: Думаю, я бы сказал две вещи. Прежде всего, будьте скромны, иначе мир унизит вас. Во-вторых, следуйте своей страсти, а не деньгам, потому что, если вы будете следовать своей страсти, деньги придут автоматически.

    Источник

    Средний рейтинг
    0 из 5 звезд. 0 голосов.