Компанія OpenAI, розробник Chat GPT та інших продуктів, що використовують моделі штучного інтелекту, представила нову модель генеративного ШІ Sora, яка створює відеокліпи високої чіткості на основі текстових описів користувача.
Sora також може створювати відеокліпи на основі нерухомих зображень, розширювати наявні відео або заповнювати відсутні кадри.
Introducing Sora, our text-to-video model.
— OpenAI (@OpenAI) February 15, 2024
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
Sora наразі обмежена створенням відео тривалістю хвилину або менше. Поки що Sora доступна лише для невеликої групи тестувальників безпеки, або «червоних команд», які перевіряли модель на вразливість у таких сферах, як дезінформація та упередженість.
Prompt: “A movie trailer featuring the adventures of the 30 year old space man wearing a red wool knitted motorcycle helmet, blue sky, salt desert, cinematic style, shot on 35mm film, vivid colors.” pic.twitter.com/0JzpwPUGPB
— OpenAI (@OpenAI) February 15, 2024
Prompt: “Several giant wooly mammoths approach treading through a snowy meadow, their long wooly fur lightly blows in the wind as they walk, snow covered trees and dramatic snow capped mountains in the distance, mid afternoon light with wispy clouds and a sun high in the distance… pic.twitter.com/Um5CWI18nS
— OpenAI (@OpenAI) February 15, 2024
OpenAI також заявив, що створює «класифікатор виявлення», який може ідентифікувати створені Sora відеокліпи, і що він планує включити певні метадані у вихідні дані, які повинні допомогти з ідентифікацією створеного ШІ контенту.
Нові технології викликають серйозні занепокоєння дослідників у царині дезінформації. Згідно з даними Clarity, фірми з машинного навчання, кількість дипфейків, створених штучним інтелектом, зросла за рік на 900%.