carlosi104 escribió:El sintetiador del futuro es decirle al teléfono móvil "OK Sirexa, me apetece escuchar un tema como el que compondría Chick Corea dentro de una catedral, con un avión sonando de fondo en armonía, con una estructura a, puente, b, puente, c, coda, y con unas trompetas angelicales en los puentes que recuerden un poquito a Sgt Peppers Lonely Hearts Club Band."
Yo diría que la cosa va a ir por ahí. Lo comenté el en hilo de la IA, esto es de un tipo que está experimentando con este tipo de programas:
Alguien escribió:Quizás ahí está la clave. Entre la comunidad de artistas usando IAs para crear imágenes sus "prompts" (lista de elementos de referencia) son el secreto mejor guardado, porque definen el estilo de las series de imágenes que hacen.
Como sabéis he estado estos días a saco con temas de generación de arte digital con IA.
Hay un tema que me recuerda a cuando hacia 3D: los artistas/devs protegen con celo (top secret) los parámetros de entrada que meten al modelo para generar su arte.
https://www.hispasonic.com/foros/inteligencia-artificial-utilizando-crear-nuevas-canciones/547395/pagina5#post4838794
clonn escribió:Incluso me lo imagino incorporando técnicas como las de GauGAN, tú podrías pintar con diferentes instrumentos y dejar que la IA lo complete. Después le dices “hazme una versión más melancólica” o los retoques que creas.
Cierto. Para mi lo interesante de este tipo de herramientas basadas en modelos de difusión es que no se parte de otra imagen (se usan los conceptos para encontrar imágenes de referencia) si no de un mapa de ruido sobre el que en sucesivas iteraciones se va creando el resultado final. No parte de trazos o formas, va directamente al resultado final.
https://lilianweng.github.io/posts/2021-07-11-diffusion-models/
Eso mismo aplicado al sonido/música ofrece posibilidades seguramente increíbles.