Boletines de Sistemas
27-02-2024
OPEN AI – SORA
Sora es un modelo de inteligencia artificial generativa para la creación de videos proveniente de Open AI.
Comprende indicaciones en formato de texto, a partir de lo cual genera un video en lugar de párrafos o imágenes. En la práctica, el usuario escribe un prompt (indicación textual) para que el sistema responda con contenido.
La compañía liderada por Sam Altman, Director ejecutivo de OpenAI, asegura que el modelo es capaz de generar escenas realistas, adhiriéndose a las indicaciones de los usuarios.
¿Como funciona Sora?
El modelo es capaz de generar escenas complejas con muchos personajes. También se puede especificar el tipo de movimiento del sujeto y detalles precisos del entorno. “El modelo entiende no solo lo que el usuario ha pedido en el mensaje, sino también cómo existen esas cosas en el mundo físico”, dice la compañía.
- La clave es el entrenamiento con datos. En este caso, una amplia biblioteca de imágenes con movimiento, debidamente etiquetadas ya que con ellas crea clips con movimiento.
- Igual que ocurre con ChatGPT y afines, otra de las claves para generar buen contenido es la adecuada generación de los prompts usando un lenguaje sencillo y con muchos detalles.
- La versión anunciada genera videos de hasta 60 segundos de duración.
- En el sitio web oficial del proyecto (https://openai.com/sora), OpenAI publica varios ejemplos; allí podemos ver clips en formato horizontal y también en vertical.
¿Video real o generado artificialmente?
Esta herramienta, aún en fase de desarrollo, abre un mundo de posibilidades creativas, pero también surge la preocupación sobre la propiedad intelectual, la autenticidad de las obras artísticas y la delgada línea que separa la realidad de la ficción.
La IA puede imitar la forma de crear, pero no puede replicar la esencia de la creación humana. La inteligencia artificial no tiene emociones, experiencias o una visión del mundo propia. Sus creaciones son solo algoritmos que siguen reglas predefinidas.
La IA no es una amenaza para la creatividad humana, sino una herramienta que puede potenciarla. Se debe utilizar de manera responsable permitiéndonos crear un futuro donde la tecnología y la humanidad se complementen y que no ponga en riesgo a la sociedad.
Desde OpenAI indicaron ser consciente de los riesgos en su uso, por lo que están creando herramientas para ayudar a detectar contenido engañoso, como un clasificador de detección que puede indicar cuándo Sora generó un video. Además, el clasificador de texto verificará y rechazará las solicitudes de ingreso de texto que infrinjan las políticas de uso, como aquellas que solicitan violencia extrema, contenido sexual, imágenes de violencia, imágenes de celebridades o la propiedad intelectual de terceros.
¿Cómo evitar riesgos significativos?
En este momento Sora se encuentra disponible únicamente para los investigadores de OpenAI. Su funcionamiento está limitado a pruebas de laboratorio.
Como mencionamos antes, OpenAI prometió tomar varias medidas de seguridad antes de que esté disponible, trabajando con expertos en áreas como desinformación, contenido de odio/ violencia y prejuicios, evaluando daños, vulnerabilidades y riesgos para evitar en el futuro que se pierda la capacidad de distinguir entre lo real y lo falso.
A tal fin, se conforman “equipos rojos” que es una metodología tomada de la Guerra Fría, que consiste en probar los escenarios menos favorables y más desafiantes, testeando las funciones más nocivas del modelo para trabajar sobre ellas en un ambiente controlado, antes de su lanzamiento al público general.
Si tiene alguna consulta en relación a esta temática, por favor no dude en contactarse con nosotros.
Departamento de Sistemas
Febrero 2024
Este boletín informativo ha sido preparado por mgi Jebsen & Co. para información de clientes y amigos. Si bien ha sido confeccionado con el mayor cuidado y celo profesional, mgi Jebsen & Co. no asume responsabilidades por eventuales inexactitudes que este boletín pudiera presentar.