To je to što me zanima!

VIDEO Tesla jede ćevape na Trgu bana Jelačića, Stephen Hawking skače salto. Ne, to nije stvarno

Sora 2 je najnoviji val tekst-u-video alata koji u nekoliko sekundi stvara uvjerljive scene ljudi, glasova i situacija. Problem? Granica između kreativnosti i zloupotrebe javnih osoba — od znanstvenika poput Stephena Hawkinga do političara — tanja je nego ikad.
Vidi originalni članak

Nikola Tesla koji jede ćevape na Trgu bana Jelačića ili burek u Sarajevu, Albert Einstein u ultimate fight meču, serija videa Stephena Hawkinga kako u kolicima radi salto na rampi za skateboard.... Ako koristite TikTok, ovakva videa vjerojatno su vam iskočila proteklih tjedana. Alat Sora 2 pokazuje koliko je “prompt to video” napredovao: realistična rasvjeta, prirodni pokreti kamere i koherentne mini-scene nastaju bez klasične produkcije. Sve to otvara fantastične prilike za reklame, edukativne isječke i prototipove filmova, ali i mračniju stranu — lažne klipove s prepoznatljivim licima i glasovima. U praksi, nekome je dovoljno par rečenica i javno dostupne fotografije da “oživi” lika koji nikada nije dao pristanak.

I’m definitely falling for AI when I’m older
byu/Suspicious-Bee-5487 inaivideo

Zato se u prvi plan guraju pravila oko pristanka i atribucije: korištenje stvarnih osoba (posebno pokojnih) bez dopuštenja je etički i pravno sklisko, a redakcije i brendovi moraju tražiti eksplicitna odobrenja ili koristiti generičke, neprepoznatljive likove. Tehničke zaštite poput digitalnih vodenih žigova i provjere izvornosti pomažu, ali nisu čarobni štit — obavezne su i oznake sadržaja (“ovo je AI video”), jasne interne politike te verificirani workflow (tko je promptao, kojim modelom i s čijim pravima).

@zagrebancija14 Nikola Tesla jede čevape na trgu Bana Jelacica #nikolatesla #zagreb #cevapcici #croatia ♬ original sound - Zagrebancija

U posljednih 6–12 mjeseci skok je bio ogroman: kratki, “treperavi” klipovi prerastali su u minute stabilnog videa s boljim licima, uvjerljivijim pokretima i točnijim lip-syncom. Dodane su kontrole kamere i stila (npr. “snimaj kao dokumentarac” ili “noir”), mogućnost nastavka već snimljenog kadra i “reference” likova kako bi isti lik ostao dosljedan kroz više scena. Modeli sve češće razumiju fiziku svijeta (predmeti teže padaju, svjetlo se prirodnije lomi), a “image-to-video” i “video-to-video” pretvorbe olakšavaju uređenje postojećih snimki. Paralelno su napredovali i sustavi zaštite — vodeni žigovi i provjere izvornosti — ali detekcija zloupotreba i dalje kaska za kreativnim trikovima, što čini utrku mačke i miša bržom nego ikad.

NOVI AI Što je Sora: OpenAI tekst-u-video alat i što donosi “Sora 2”

Za publiku je jednostavno pravilo: ako video izgleda predobro da bi bio istinit — vjerojatno jest. Tražite kontekst, izvor i službenu potvrdu; kreatorima vrijedi “prvo pitaj, pa objavi”. Sora 2 može biti moćan alat za stvaranje — ili najbrži put do dezinformacija i nepoštivanja nečijeg lika i djela. Hoćemo li gledati inspirativne mini-filmove ili “Hawking deepfake” clickbait — ovisi manje o modelu, a više o našim odlukama kako ga koristimo.

Pogledajte reakciju povjesničara na AI generirane fotografije povijesnih događaja: 

Idi na 24sata

Komentari 8

  • mad max1 10.10.2025.

    Baš gledam neko dan trailer za Top Gun 18. al izlazi tek 2077

  • adidas original 10.10.2025.

    Ahahahahahahahahaha top 🤣

  • Stari maher 10.10.2025.

    You tube je prepun lažnih videa. Lažne scene poznatih i jezivo grozne scene koje nisu za gledati životinja itd. Gadljivo, za povračati.

Komentiraj...
Vidi sve komentare