Hvordan bedrifter reagerer på økningen av AI-innhold
På grunn av disse problemene jobber store teknologiselskaper med måter å forbedre autentisiteten og herkomsten til media. Som en del av sin årlige Build-konferanse kunngjorde Microsoft at Bing Image Creator- og Designer-verktøyene nå ville ha nye medieopprinnelsesfunksjoner.
Brukere vil kunne sjekke om bilder eller videoer ble laget av AI ved hjelp av kryptografiske metoder som inkluderer informasjon om hvor innholdet kom fra.
Men for at dette systemet skal fungere, må forskjellige plattformer godta spesifikasjonen Coalition for Content Provenance and Authenticity (C2PA).
På samme måte har Meta gitt ut et verktøy kalt Meta Video Seal som kan legge til usynlige vannmerker til videoklipp laget av AI.
Dette åpen kildekode-verktøyet er ment å fungere med eksisterende programvare uten problemer, noe som gjør det lettere å finne innhold som er laget av AI.
Video Seal lover å være motstandsdyktig mot vanlige redigeringer som uskarphet og beskjæring, i motsetning til eldre vannmerketeknologier som hadde problemer med videokomprimering og manipulering.
Problemer og begrensninger
Selv med disse forbedringene er det fortsatt problemer med å få mange til å bruke disse teknologiene. Mange utviklere kan være nølende med å gå over fra eksisterende proprietære løsninger til åpen kildekode-alternativer som Video Seal.
Meta planlegger å holde workshops på store AI-konferanser og lage en offentlig toppliste som sammenligner ulike vannmerkemetoder for å få flere til å jobbe sammen.
Dessuten er vannmerkemetodene vi har nå ikke alltid sterke eller effektive nok når det kommer til videoinnhold.
To hovedtilnærminger for å bekjempe AI-generert innhold
I kampen mot AI-generert innhold har to forskjellige strategier dukket opp:
- Vannmerking (forebyggende tilnærming):
- Fungerer ved å legge til usynlige signaturer til innhold i opprettelsesøyeblikket
- Fungerer som et digitalt sertifikat som viser «dette ble laget av AI»
- Verktøy som Meta Video Seal og Microsofts proveniensfunksjoner representerer denne tilnærmingen
- Hovedfordelen er umiddelbar identifisering av AI-innhold
- Deteksjonsverktøy (analytisk tilnærming):
- Analyserer eksisterende innhold for å finne ut om det var AI-generert
- Ser etter mønstre og egenskaper som er typiske for AI-skapt innhold
- Spesielt nyttig for innhold som ikke ble merket da det ble opprettet
- Disse verktøyene utgjør vår andre forsvarslinje
Begge tilnærmingene er nødvendige ettersom de utfyller hverandre: vannmerking forhindrer misbruk, mens deteksjonsverktøy hjelper til med å identifisere umerket innhold.
Deteksjonsverktøy og -teknologier
AI-generert innhold kan finnes på flere måter enn bare vannmerketeknologier. Nye deteksjonsverktøy bruker komplekse algoritmer for å se på både tekst- og bildeinnhold.
- Originalitet, dyplæringsalgoritmer brukes av AI for å finne mønstre i tekst som ble generert av AI.
- GPTZero ser på språklige strukturer og ordfrekvenser for å se forskjellen mellom innhold som ble skrevet av mennesker og innhold som ble skapt av maskiner.
- CopyLeaks bruker N-gram og syntakssammenligninger for å finne små endringer i språket som kan være tegn på AI-forfatterskap.
Disse verktøyene er ment å gi brukerne nøyaktige meninger om hvordan ekte innhold er, men hvor godt de fungerer kan variere mye.
For å konkludere
Etter hvert som generativ AI utvikler seg, blir det stadig viktigere å beskytte digital autentisitet. Microsoft og Meta leder an med banebrytende standarder for innholdsautentisitet og verifisering av medieopprinnelse.
For å bekjempe deepfakes effektivt, trenger vi både bransjeomfattende adopsjon av disse verktøyene og sterkere samarbeid mellom teknologiselskaper. Den fremtidige integriteten til digitalt innhold avhenger av deteksjonsteknologier som utvikler seg raskere enn AI-generert bedrag.
Faktisk har vi nylig dekket hvordan YouTube tar lignende skritt ved å introdusere nye AI-deteksjonsverktøy for skapere og merkevarer. Tilnærmingen deres inkluderer syntetisk stemmeidentifikasjon og AI-genererte ansiktsgjenkjenningsteknologier, noe som ytterligere demonstrerer hvordan store plattformer jobber for å beskytte innholdets autentisitet i AI-æraen.