DeepFakes: ЗМІ говорять про політику, як громадськість бере участь у порнографії - xnxx

[Social_share_button]

Відображення обличчя відео Барака Обами як частина створення "глибокого підробленого" відео. (AP Photo)

"Глибокі підробки" увірвалися в суспільну свідомість у грудні 2017 з підйомом порнографії, побудованої AI, в якій обличчя знаменитостей були вставлені в порнографічні відео. Користувач Reddit під назвою "deepfakes" опублікував серію відеороликів, які розпочали нову епоху роздумів про вплив штучного інтелекту та його перехід від лабораторії до реального світу та дали нам ім'я цього нового типу штучної реальності, побудованої чисельно. Після цього короткого початкового сплеску, здається, що ми значною мірою втратили інтерес до ідеї "фальшивої вигаданої" просто інтеграції в неперервний потік AI прогресу, від автомобілів без водіїв до алгоритмів роботи розпізнавання обличчя. В цілому ЗМІ зосереджувались на потенційному електоральному впливі глибоких фальсифікацій, тоді як громадськість зосереджувалася на порнограмі

Наведена нижче діаграма показує загальну зацікавленість США у пошуку чотирьох англійських виразів "фейковий фейк", "фейк фейк", "глибокий фейк" та "глибокий фейк" з листопада 1er 2017er за допомогою Google тенденції. Зрозуміло, що однослівні версії "deepfake" і "deepfakes" домінують в інтересах досліджень, "deepfakes" є найпопулярнішим через його вибір як ім'я користувача Reddit людини, який має популяризував його сучасне використання, в той час

Американський дослідницький інтерес до чотирьох англійських виразів "глибока підробка", "глибока підробка", "глибокий фейк" та "глибокі фейки" починаючи з 1 листопада 2017er за допомогою Google Trends Калев Летару

У глобальному масштабі ця тенденція стає ще більш вражаючою, англійський термін "deepfake", що має більш ніж втричі більший обсяг пошуку інших термінів.

Глобальний інтерес до пошуку чотирьох англійських виразів "глибока підробка", "глибокі підробки, глибокі фейки" та "глибокі фейки" з листопадового 1er 2017 в Google Trends Калев Летару

Користувач Reddit, названий "deepfakes", представив світ порнографії, побудованої AI. основний у грудні 2017, коли видає серія порнографічних відеозаписів, що замінюють обличчя виконавців обличчям відомих знаменитостей.

Після генерації короткого шуму, цей термін фактично відбувся в лютому 2018, тоді як подібні відеозаписи починалися затоплення Інтернет, хоча необхідні інструменти та методи були широко доступні. Повінь стала такою великою що основні веб-сайти були змушені заборонити загальні заборони на відео і починайте їх видаляти.

На противагу цьому, державна служба Джордана Піле у квітні 2018 реклама виступаючи як колишній президент Барак Обама отримав майже непомітний удар в інтересах досліджень, про що свідчать хронології вище.

Здається, що ідея порнографії про знаменитість публіці набагато цікавіша, ніж дистопійна загроза главам держав

Наприкінці 2018 Скарлет Йоханссон зробила гнітюче висновок що глибокі підробки були тут, щоб залишитися, і що "спроба захистити себе від Інтернету та його розбещення є втраченою причиною". Цікаво зазначити, що у своєму вступному реченні Washington Post визначено підроблені підробки, як відеоролики, "в яких обличчя жінки вставляються в явні порнографічні відео", - згадує він. Ми зрозуміли, як цей термін став асоціюватися з більш темними аспектами Інтернет-культури.

Перший відомий приклад великого телеканалу розсіює підроблене та підроблене відео, на якому було обличчя президента Трампа

Найсвіжіша хвиля інтересів - це тиждень 27 січня 2019, в якому відео вірусний Вірус голови Стіва Бускемі на тілі Дженніфер Лоуренс показав, наскільки дивно реалістичними та реалістичними стали відеоролики.

Зрозуміло, що суспільний інтерес зосередився на порнографії на шкоду політиці щодо потенційних застосувань глибокої підробки. Насправді майже всі пошукові терміни, найчастіше пов'язані з глибокими фальсифікаціями, пов'язані з порнографією.

ЗМІ були настільки захоплені порнографічними додатками глибоких фальсифікацій, але присвятили стільки ж політичним наслідкам. , Близько 42% респондентів згадували про свої порнографічні додатки у своєму онлайн-висвітленні новинами на мовах 65, відстежуваних у рамках проекту GDELT тоді як 48% згадав про своє потенційне використання в політиці. Разом два суб'єкти представляли 72% фальшивого поглибленого висвітлення, що показує, наскільки добре вони визначали нашу суспільну розмову навколо зображень, створених штучним інтелектом.

На відміну від веб-пошуку, якщо мова йде про глобальне висвітлення новин в Інтернеті, то це множина. форма, яка домінувала, з "deepfakes", що представляє 0,43% покриття за той же період, проти 0,34% для "deepfake". Як і в Інтернеті, однословні варіанти приділяли набагато більше уваги, ніж фразові версії, з "глибокими фальсифікаціями", що набирають покриття 0,15% та "глибокі фальсифікації" 0,14%.

З кожним місяцем ЗМІ все більше і більше говорять про серйозні фальсифікати, але тема все ще вкрай стомлена. Своєї кульмінації він досяг у серпні 2018, коли Tumblr заборонено підроблена глибока порнографія та перші результати почали виникати зусилля DARPA по боротьбі з ними, коли технічні компанії боролися з грою в кішку і мишку. видалення & nbsp; відео швидко вдосконалюються.

Щомісячна сума щоденного відсотка висвітлення новин в Інтернеті по всьому світу з згадуванням глибоких підробок, що відслідковуються проектом GDELT Калев Летару

Наведена нижче хронологія показує той самий графік, але розділений на висвітлення порнографічного впливу глибоких підробок стосовно його політичних наслідків. Порнографія домінувала в глибокій розмові до квітня 2018 з відео Peele, після чого висвітлення в ЗМІ все більше фокусувалося на потенційному політичному впливі глибоких фальсифікацій.

Щомісячна сума щоденного відсотка висвітлення новин в Інтернеті по всьому світу, що згадує про глибокі фальсифікації Контекст порнографії або політики, що контролюються проектом GDELT Калев Летару

Підсумовуючи це, аудиторія, як видається, зосереджена на застосуванні зображень, створених AI для створення порнографії, без особливого інтересу до наших демократичних систем. З іншого боку, засоби масової інформації поділяють свій час однаково між порнографією та політикою, зростаючий перехід до політики, який не відображається в громадських пошуках у мережі. Здається, визнання ЗМІ зростаючою загрозою глибокого політичного втручання ще не супроводжується громадським розрахунком.

Зрештою, зрозуміло, що технологіям ще належить зробити багато для того, щоб переосмислити публічний дискурс навколо фальшивих імітацій. на шляху до найнебезпечніших застосувань для підриву самої демократії.

">

Відображення обличчя відео Барака Обами як частина створення відео типу "глибока підробка". (AP Photo)

"У грудні 2017 з підйомом громадськості запускали громадськість порнографії, побудованої AI, в якій обличчя знаменитостей були вставлені в порнографічні відео. Користувач Reddit під назвою "deepfakes" випустив серію відео нових епох, що відображають вплив штучного інтелекту та його перехід від лабораторії до реального світу і дали нам назву цього нового типу цифрово побудованої штучної реальності , Не було інтересу до ідеї "глибокої фальсифікації", об'єднання об'єднаних у нескінченний потік AI прогресу, від автомобілів без водіїв до алгоритмів розпізнавання обличчя. Загалом ЗМІ зосереджувались на потенційних виборчих наслідках глибоких фальсифікацій, тоді як громадськість зосереджувалась на порнографії.

Наведена нижче діаграма показує загальну зацікавленість США у дослідженні чотирьох англійських виразів "глибока підробка", "глибокі підробки", "глибокі фейки" та "глибокі фейки" з 1er листопада 2017 в Google Trends. Зрозуміло, що однослівні версії "deepfake" і "deepfakes" домінують в інтересах досліджень, "deepfakes" є найпопулярнішим через його вибір як ім'я користувача Reddit людини, який має популяризував його сучасне використання, в той час

Американський дослідницький інтерес до чотирьох англійських виразів "глибока підробка", "глибока підробка", "глибокий фейк" та "глибокі фейки" починаючи з 1 листопада 2017er за допомогою Google Trends Kalev Leetaru [19659027] У всьому світі ця тенденція ще чіткіша, англійський термін "deepfake", що має більш ніж втричі більший обсяг пошуку інших термінів.

Глобальний інтерес у пошуках чотирьох англійських виразів "глибока підробка", "глибокі підробки", "глибокі фейки" та "глибокі фейки" з листопада 1er 2017 в Google Trends Калев Летару

Користувач Reddit, названий "deepfakes", представив світ побудованої AI порнографії мейнстрім у грудні 2017, коли видає серія порнографічних відеозаписів, що замінюють обличчя виконавців обличчям відомих знаменитостей

Після генерації короткого повідомлення, термін починає діяти в лютому 2018. поки подібні відеозаписи починалися затоплення Інтернет, необхідні інструменти та методи стають широко доступними. Повінь стала такою великою що основні веб-сайти були змушені заборонити загальні заборони на відео і починайте їх видаляти.

На противагу цьому, державна служба Джордана Піле у квітні 2018 реклама виступаючи як колишній президент Барак Обама отримав майже непомітний удар в інтересах досліджень, про що свідчать хронології вище.

Здається, що ідея порнографії про знаменитість публіці набагато цікавіша, ніж дистопійна загроза главам держав

Наприкінці 2018 Скарлет Йоханссон зробила гнітюче висновок що глибокі підробки були тут, щоб залишитися, і що "спроба захистити себе від Інтернету та його розбещення є втраченою причиною". Цікаво зазначити, що у своєму вступному реченні Washington Post визначено підроблені підробки, як відеоролики, "в яких обличчя жінки вставляються в явні порнографічні відео", - згадує він. Ми зрозуміли, як цей термін став асоціюватися з більш темними аспектами Інтернет-культури.

Перший відомий приклад великого телеканалу розсіює підроблене та підроблене відео, на якому було обличчя президента Трампа

Найсвіжіша хвиля інтересів - це тиждень 27 січня 2019, в якому відео вірусний Вірус голови Стіва Бускемі на тілі Дженніфер Лоуренс показав, наскільки дивно реалістичними та реалістичними стали відеоролики.

Зрозуміло, що суспільний інтерес зосередився на порнографії на шкоду політиці щодо потенційних застосувань глибокої підробки. Насправді майже всі пошукові терміни, найчастіше пов'язані з глибокими фальсифікаціями, пов'язані з порнографією

ЗМІ однаково захоплені порнографічними додатками глибоких фальсифікацій, але присвятили стільки часу його політичним наслідкам. Близько 42% респондентів згадували про свої порнографічні додатки у своєму онлайн-висвітленні новинами на мовах 65, відстежуваних у рамках проекту GDELT тоді як 48% згадав про своє потенційне використання в політиці. Разом два суб'єкти представляли 72% фальшивого поглибленого висвітлення, що показує, наскільки добре вони визначали нашу суспільну розмову навколо зображень, створених штучним інтелектом.

На відміну від веб-пошуку, якщо мова йде про глобальне висвітлення новин в Інтернеті, то це множина. форма, яка домінувала, з "deepfakes", що представляє 0,43% покриття за той же період, проти 0,34% для "deepfake". Як і в Інтернеті, однословні варіанти приділяли набагато більше уваги, ніж фразові версії, з "глибокими фальсифікаціями", що набирають покриття 0,15% та "глибокі фальсифікації" 0,14%.

З кожним місяцем ЗМІ все більше і більше говорять про серйозні фальсифікати, але тема все ще вкрай стомлена. Своєї кульмінації він досяг у серпні 2018, коли Tumblr заборонено підроблена глибока порнографія та перші результати почали виникати зусилля DARPA по боротьбі з ними, коли технічні компанії боролися з грою в кішку і мишку. видалення відео швидко вдосконалюються.

Щомісячна сума щоденного відсотка висвітлення новин в Інтернеті по всьому світу з згадуванням глибоких підробок, що відслідковуються проектом GDELT Калев Летару

Наведений нижче календар показує той же графік, але розділений на висвітлення порнографічних наслідків глибоких фальсифікацій стосовно його політичних наслідків. Порнографія домінувала в глибокій розмові до квітня 2018 з відео Peele, після чого висвітлення в ЗМІ все більше фокусувалося на потенційному політичному впливі глибоких фальсифікацій.

Щомісячна сума щоденного відсотка охоплення інформацією в Інтернеті по всьому світу, що згадує про глибокі фальсифікації Фон порнографії або політики, що контролюється проектом GDELT Калев Летару

Підсумовуючи це, аудиторія, як видається, зосереджена на застосуванні зображень, створених AI для створення порнографії, без особливого інтересу до наших демократичних систем. З іншого боку, засоби масової інформації поділяють свій час однаково між порнографією та політикою, зростаючий перехід до політики, який не відображається в громадських пошуках у мережі. Здається, визнання ЗМІ зростаючою загрозою глибокого політичного втручання ще не супроводжується громадським розрахунком.

Зрештою, зрозуміло, що технологіям ще належить зробити багато для того, щоб переосмислити публічний дискурс навколо фальшивих імітацій. на шляху до найнебезпечніших застосувань для підриву самої демократії.

Ця стаття з'явилася спочатку https://www.forbes.com/sites/kalevleetaru/2019/03/16/deepfakes-the-media-talks-politics-while-the-public-is-interested-in-pornography/