Google presentó Lyria 3, el nuevo modelo de música generativa desarrollado por Google DeepMind, capaz de crear canciones completas (con letra, voz e instrumental) a partir de un prompt o incluso de una imagen subida por el usuario. La herramienta está integrada en Gemini y marca un paso más en la carrera por automatizar la creatividad (turbio).
Según ha explicado Google, Lyria 3 no solo “mejora” la calidad del audio respecto a versiones anteriores, sino que introduce capacidades multimodales: puede “interpretar” imágenes y convertirlas en piezas musicales coherentes con la atmósfera visual. El salto no es técnico únicamente. Es conceptual.
O sea, muy chido y todo, pero la IA está haciendo aquello que, en teoría, íbamos a hacer nosotros tras poner a chambear a los robots: el trabajo creativo. Y eso no nos gusta a muchos por las implicaciones éticas y artísticas que y tendrá.

En 2023 y 2024, más de 200 artistas, como Billie Eilish y Stevie Wonder, firmaron una carta pública impulsada por la Artist Rights Alliance exigiendo regulaciones claras sobre el uso de IA en la música y denunciando el entrenamiento de modelos con obras protegidas sin consentimiento explícito.
La preocupación no es hipotética: varias investigaciones de medios como Rolling Stone y The Guardian han documentado cómo modelos generativos han sido entrenados con grandes volúmenes de música existente, lo que ha desatado litigios en Estados Unidos y Europa.
Además, el caso de canciones generadas por IA que imitaban voces de artistas, como FlowGPT que hizo llorar a Bad Bunny (aunque sí tenía unos temazos, la verdad) evidenció que la tecnología ya te puede reemplazar, sorta. Bueno, y si lo sumas con los deep fakes, las posibilidades son muuuuy turbias.
Lyria 3 sí va a ser una herramienta divertida que te permita crear una balada sobre tu perro cojo o un perreito bien marrano basado en una de tus fotos familiares. Incluso le va a brindar posibilidades de creación a quienes no tienen conocimientos ni educación musical. Pero a qué costo.
¿Desaparecerán los músicos? claro que no, pero lo que sí sucederá es una erosión gradual del valor del oficio. La música hecha por humanos (al igual que cualquier expresión artística) implica tiempo, aprendizaje, error, vida y contexto. La música generada por IA implica velocidad, eficiencia y predicción estadística basada en patrones previos.
Cuando cualquiera puede generar una “canción profesional” en segundos sin saber armonía, sin tocar un instrumento y sin escribir una línea, la experiencia artística se transforma en producción de contenido. El proceso deja de importar. Solo importa el resultado inmediato. Pero, seamos honestos, disfrutar del proceso es lo que le da sabor a la vida misma.
No obstante, da curiosidad ver qué será el nuevo Tralalero Tralalá en versión auditiva. ¿Nos acercamos cada día más a una distopía tecnológica? Ya estamos ahí, viejx. Pero, al menos queda un consuelo: la IA jamás superará lo random de la mente mexicana, alv viejones.

Deja un comentario