Služba sa šíri cez Telegram a používajú ju milióny ľudí. V roku 2019 spôsobila rozruch neurónová sieť DeepNude od estónskych autorov, ktorá ženám kradla šaty a vytvárala tak intímne obrázky. Trend vytvárania takýchto kompromitujúcich fotografií cez umelú inteligenciu samozrejme neustal, a žurnalisti z webu Wired našli vyše 50 botov, ktorý sľubujú z dodaných fotiek behom pár minút urobiť šteklivé deepfaky. Boti sa šíria prostredníctvom komunikátora Telegram, a kombinovane majú milióny aktívnych používateľov. Presný počet sa samozrejme zistiť nedá, ale ide o alarmujúce číslo. História zneužívania nedobrovoľných intímnych snímok (NCII – z ang. nonconsensual intimate image) – ako sa často nazýva používanie explicitných deepfakov bez súhlasu – sa začala koncom roka 2017. Server Motherboard (teraz Vice com) našiel online video, v ktorom bola tvár Gal Gadot prekrývaná na existujúce pornografické video tak, aby to vyzeralo, že sa herečka zúčastňuje na zobrazených aktoch. Užívateľské meno osoby, ktorá tvrdila, že je za toto video zodpovedná, vyústilo do označenia „deepfake“. Kedysi vznikali zábavné aplikácie na výmenu tvári s výsledkom rozličnej, často nízkej kvality a bolo hneď poznať že ide o počítačovo vytvorenú koláž. S rozvojom generatívnej AI však prichádzajú realistické nielen fotografie, ale aj videá. Vrátane hlasu obete. Väčšina botov nájdených na Telegrame nepoužíva nejakú veľmi sofistikovanú technológiu a sú limitovaný na odstraňovanie šiat, ale aj to vie napáchať veľké škody. Títo boti sa stali lukratívnym zdrojom príjmu a na vygenerovanie fotografie vyžadujú isté množstvo tokenov. Kriminálnici samozrejme reagovali na dopyt, a popri funkčných botoch vznikli aj falošní, ktorí buď nedodajú výsledok alebo je v nízkom rozlíšení/kvalite. Vytváranie takýchto deepfake obrázkov je nielen pre klienta pomerne nákladné, ale nie je garantované žiadne súkromie, zneužitie neodstránených metadát ako GPS dáta a dokonca to môže skončiť infekciou zariadenia. Vytváranie a šírenie explicitných deepfakov vyvoláva závažné etické otázky týkajúce sa súhlasu, súkromia a objektivizácie žien, nehovoriac o vytváraní materiálov so sexuálnym zneužívaním maloletých detí. Talianski vedci zistili, že takto vytvorené diela sú novou formou sexuálneho násilia s možnými dlhodobými psychologickými a emocionálnymi dôsledkami na obete. Na ochranu pred takýmto obsahom vzniklo viacero iniciatív. USA navrhli legislatívu v podobe zákona o zodpovednosti za falošné údaje. V kombinácii s nedávnou zmenou politiky Telegramu, ktorá spočíva v odovzdávaní údajov o používateľoch orgánom činným v trestnom konaní v prípadoch, keď sú používatelia podozriví zo spáchania trestného činu, by to mohlo spomaliť používanie botov, prinajmenšom na Telegrame. Pravidlá používania niektorých platforiem ako vyhľadávač Google zas zakázali umiestňovanie nedobrovoľnej deepfake pornografie vo výsledkoch. Maslo na hlave majú aj samotné sociálne siete. Veľa ľudí si neuvedomuje nebezpečenstvo trénovania AI na ich dátach, a s výnimkou občanov EÚ väčšina sveta ani nemá možnosť toto sieťam zakázať, jedine zmazať konto, čím však okrem obsahu môže používateľ prísť aj o vyše desaťročia starú komunikáciu na sieti. Vytvorené deepfaky, nech sa týkajú čohokoľvek, pomáhajú šíriť dezinformácie, bez dôkazov poškodiť reputáciu, súkromie alebo slúžia na kriminalitu, vrátane ekonomickej. Každá fotografia odfotená moderným smartfónom obsahuje rozličné metadáta, väčšinou aj GPS dáta, ktoré sa dajú zneužiť. Rovnako neodporúčame aplikáciám len tak bez rozmyslu dávať prístup ku galérii fotografií kvôli pohodliu, nakoľko obsahujú spomínané metadáta. Umelo vytvorené videá tváre reálnej osoby môžu navyše prekonať zabezpečenie niektorých biometrických snímačov tváre. Preto odporúčame nezdieľať svoje fotografie alebo fotografie iných ľudí na verejnom Internete, zvlášť ak sú označení reálnym menom. Čokoľvek je raz na Internete, je totiž prakticky nemožné odtiaľ dostať preč. A vždy sa nájde niekto, kto si môže fotografie zo sociálnych sietí stiahnuť do vlastného zariadenia a v budúcnosti zneužiť. Zdroj The post Generatívna AI opäť zneužitá na odstraňovanie oblečenia appeared first on DigitalPortal.sk.
Uvažujete o výbere nového oblečenia do firmy? Tu je návod, ako si vybrať najlepšieho dodávateľa. Výber oblečenia je potom hračka.
prejsť na článokSme hrdým partnerom čistej organickej rady oblečenia FRUGI - experta na zážitky pre Vaše detičky. Exkluzívne iba u nás uvádzame kolekciu Jar / Leto 2021 , ktorú sme práve spustili do predaja. Ako vzniklo FRUGI a aké má hodnoty si prečítate v tomto článku
prejsť na článokAko sa orientovať v zložení materiálu na etiketách a visačkách oblečenia. Prehľad látok podľa materiálov. Prírodné a syntetické materiály oblečenia. Aké sú vlastnosti textilných látok a oblečenie ktoré si kupujeme?
prejsť na článokAké farby budú v roku 2023 trendy? Niektoré prekvapia, iné sú skôr stálicami. Správna voľba oblečenia vám môže pomôcť k vyššiemu sebavedomiu a tým pádom aj pracovným úspechom. Poďme sa pozrieť na trendy farby na rok 2023.
prejsť na článokKtorý druh oblečenia vidíte najviac pri prechádzke mestom, v nákupných centrách, na futbalových štadiónoch a najmä v školách? Medzi najpreferovanejšie kúsky oblečenia bude rozhodne patriť mikina, ktorá vo Vašom šatníku určite je a nesmie chýbať! Je obľúbe
prejsť na článok