+31 (0)765329610            info@aware-online.com
    Leeromgeving   |   Onderzoek   |   Werken bij   |   OSINT vacatures   |   Contact   |   
OpenAI Sora

Gisteren publiceerde OpenAI iets nieuws: Sora. Sora is een “text-to-video”-model. Het maakt video’s van maximaal één minuut gebaseerd op een tekstueel uitgewerkte prompt. En het enge is dat de video’s er wel heel realistisch uitzien. Is Sora daarmee een nieuwe uitdaging voor OSINT-onderzoekers?

Wat is Sora?

Met Sora heeft OpenAI een nieuwe toepassing van kunstmatige intelligentie bedacht. Met Sora wordt AI aangeleerd om de fysieke wereld in beweging te begrijpen en 0m deze te kunnen simuleren. Dat levert dus geen afbeeldingen maar video’s op. Het doel dat OpenAI hiermee heeft is het trainen van modellen die mensen kunnen helpen om problemen op te lossen waarbij echte beweging en interactie bestaat.

Hoe ziet Sora er uit?

Om een beeld te krijgen van de mogelijkheden van OpenAI’s Sora, kun je het beste op onderstaande afbeelding klikken. Je kunt dan de verschillende video’s van Sora zelf bekijken op de website van OpenAI.

Sora van OpenAI

Waarom kan Sora een uitdaging voor OSINT-onderzoekers zijn?

Het gebruik van kunstmatige intelligentie (“AI”) kan vele voordelen hebben. Zo kan AI de gezondheidszorg helpen om ziektes te detecteren en om complexe operaties mogelijk te maken. Het kan ons alledaags leven makkelijker maken met een hogere gebruikerservaring en efficiëntie. En het kan zelfs scripts maken die wij inze onze OSINT-onderzoeken gebruiken. Maar AI kan ook problemen veroorzaken. Zelf schrijft OpenAI over Sora het volgende:

“We’ll be taking several important safety steps ahead of making Sora available in OpenAI’s products. We are working with red teamers — domain experts in areas like misinformation, hateful content, and bias — who will be adversarially testing the model.”

Bij OpenAI zien ze dus ook in dat deze nieuwe vorm van AI een risico kan vormen. De beelden van Sora lijken zo echt dat dit voor OSINT-onderzoekers een uitdaging kan vormen bij het herkennen van desinformatie. Het kan steeds moeilijker worden om echt nieuws van “fake news” te onderscheiden, met alle nadelige gevolgen van dien.

Hoe denk jij over de risico’s van AI voor OSINT-onderzoekers?

Zie jij de toepassing van AI binnen OSINT meer als een vloek of een zegen? Laat het ons weten in de comments!

Previous PostNext Post

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

This site is protected by reCaptcha and the Google Privacy Policy and Terms of Service apply.