Teo Tormo escribió:
En la misma época me dio por experimentar con políticos y gente famosa, pero desconozco el motivo por el que Midjourney cuando le pedías en una misma imagen a más de un famoso entremezcla los rasgos de todos entre ellos, supongo que no me empollé a fondo bien los comandos y sus variables.
Ayer mismo en X vi una foto de una novia probándose el traje frente a unos espejos. La foto estaba hecha con un iPhone, que como todos los teléfonos de gama alta mejora las imágenes con algoritmos de IA... la pose de la novia era diferente en cada espejo. Porque el teléfono pensaba que eran 3 personas distintas y al partir de una ráfaga de fotos tomaba las mejores poses.
Eso ya es un problema, ni siquiera las fotos que tomamos en las vacaciones son exactamente reales. El cielo azul no era realmente así.
Los modelos están mejorando mucho y ya no te mezclan personajes, permiten mantener la consistencia entre diferentes imágenes, ya no te salen aberraciones con 7 dedos o 80 dientes, etc... simplemente se va mejorando la forma en que se entrenan. De lo que producían hace 1 año a lo de ahora media un abismo.
Teo Tormo escribió:
También me dio por pedirle que inventara equipamiento de estudio, y aunque el acabado de los materiales, elementos, los reflejos… era fotorrealista a tope el aparato era un galimatías sin sentido. También detecté algo curioso , si pedías que te representara gente con unos auriculares, los representaba como si en lugar de un accesorio fueran una parte del cuerpo que formara parte del cráneo, algo extraño pero imagino que simplemente imita formas sin tener conciencia de lo que realmente es.
Ayer un químico también en X decia que no veía a ChatGPT sustituyendo a los químicos, porque al pedirle un dibujo de la molécula de metanol le había dado una cosa muy chula pero sin pies ni cabeza... lo que el químico no veía es que ChatGPT había pedido a Dall-e 3 que produjera la imagen y este sólo lo hace con criterios estéticos... si le pides el modelo a ChatGPT este sí te da la molécula correcta.
https://www.nature.com/articles/d41586-023-03745-5
Pero la IA, cuando está entrenada con los materiales correctos, extremadamente competente en química.
Para hacer música lo veo igual. De hecho hace más de un año ya lo comentamos.
Klaus Mari Kong escribió:
Imagina una herramienta donde en base a tus "prompts" (donde puedes poner todo tipo de cosas y definir tu estilo) se generan loops, ya sean intros, estrofas o estribillos. O hooks u otros tipos de motivos musicales... el sistema genera docenas de ellos en segundos, "casi" completamente producidos. Y tú te dedicas al collage.
O generar letras... a esto no le veo mayor problema. La mayoría de las que generan las AI ya son igual o mejores que las del Billboard
De hecho yo "alimentaría" la AI con frases que me gusten sacadas de libros, poemas, otras canciones, nombres de artistas que me influyen, películas, etc... y de ese modo puedo definir mi "propio estilo".
Me da que todo esto puede llevar el track&hook al siguiente nivel. Dudo mucho que me equivoque al decir que el 90% del Billboard se producirá así en los próximos 5 años. Porque al final lo que hacen estas IAs es exáctamente lo que hace Max Martin o Dr. Luke.
Lo de alimentar una IA con frases ya lo puedes hacer con ChatGPT, puedes entrenar tu propio modelo para que escriba letras en la línea que te interese.