Categoría: Tecnología

  • La interesante pero extraña música hecha por plantas y hongos

    La interesante pero extraña música hecha por plantas y hongos

    Tengo amistades que son musicxs expertos que tocan con maestría instrumentos como la guitarra, el piano, la flauta e incluso cosas muy exóticas como el arpa de pedales (la cual ni me dejan agarrar porque son carísimas). Pero son contadas las personas que optan por aprender a ejecutar cosas que van más allá de lo que “encaja en sociedad”, como plantas y hongos.

    Y no me refiero a veganxs que echan sus bombastic side eyes cuando les dices de unos tacos o gente que se mete sustancias, sino a personas que verdaderamente han decidido explorar las posibilidades creativas que estos organismos vivos permiten (con o sin su consentimiento… no sé, no hablo vegetaliano)

    ¿Qué es la biosonificación?

    Varios artistas y colectivos al rededor del mundo han comenzado a trabajar con sus impulsos bioeléctricos de plantas y hongos como materia prima sonora. Lo que hacen es capturan esas microvariaciones provocadas cambios en la luz, humedad, contacto, etc., y las traducen en señales digitales que después se convierten en sonido.

    Ese proceso se llama biosonificación y básicamente consiste en tomar datos eléctricos de organismos vivos y transformarlos en notas, ritmos o texturas. A continuación, voy a hablar de algunos de esas interesantes, pero extrañas (Pati Chapoy referencia) creaciones artísticas poco convencionales.

    Data Garden y PlantWave

    Quién quizá podría tomarse como pionero en esto es el colectivo Data Garden. Estos panas sacaron un dispositivo llamado PlantWave. Es un sistema se conecta a hojas, tejidos vegetales y/o hongos mediante sensores que registran cambios en la conductividad eléctrica del organismo.

    Los datos obtenidos se convierten en señales MIDI y luego en sonido. Par ano entrar en detalles muy técnicos, con sus algoritmos y demás cosos de artistas formaron Data Garden Quartet, un performance musical en el que hacen composiciones musicales tomando de base la información obtenida de plantas tropicales.

    Mileece

    Otra experta en el tema es la artista británica Mileece, quien se fue a algo más inmersivo. Su trabajo usa señales de plantas para generar paisajes sonoros que evolucionan según la actividad biológica y las condiciones del espacio.

    Su take en la la biosonificación se enfoca más en la textura, la duración, la densidad y la forma en la que un organismo altera una atmósfera sonora.

    Scenocosme

    Por otro lado, el colectivo francés Scenocosme empuja esta práctica hacia la interacción directa, o sea, manosean a las plantas para ver cómo esto afecta el sonido generado. Su sistema registra la variación eléctrica provocada por el contacto y la convierte en respuesta sonora en tiempo real.

    Estos individuos, más que hacer música, hacen como instalaciones artísticas y los sonidos que hacen sus plantas remiten a llamados de animalitos. Muy interesante la netflix.

    Modern Biology

    El proyecto Modern Biology, de Tarun Nayar, tiene unas rolas bien chiditas. Su propuesta ofrece piezas de ambient y electrónica que fácilmente podrían ser la banda sonora de cualquier videojuego. Me imagino que, en hongos, sus canciones te pueden hacer tener un trip peculiar, por así decirlo.

    Yuma Project

    Buscando quién en México hacía algo por el estilo me encontré con los duranguenses Yuma Project. este colectivo trabaja directamente con plantas y hongos para generar música en vivo. Lo hacen conectando sensores a organismos para captar sus impulsos eléctricos y traducirlos en sonido.

    Además, le suman a esto bajo, batería, saxofón y voz. Lit es una banda en la que parte de la orquesta podrían ser las suculentas y los cactus que dejaste morir en tu casa por exceso de cuidado.

  • Tilly Norwood o por qué la IA jamás superará al arte hecho por humanos

    Tilly Norwood o por qué la IA jamás superará al arte hecho por humanos

    Seamos honestos: solo a la gente básica le gustan los productos culturales hechos con IA. Sí, hay algunas cosillas que si están chidillas (anulo funa), como el Flow GPT (en paz descanse), pero mi statement va más allá de las posibilidades creativas de las herramientas o de la tecnología en sí; tiene más que ver con cómo muchas personas menosprecian el trabajo artístico/creativo y creen que por escribir un prompt y generar un video de furros peleando con el Chavo animado ya son animadores, guionistas, fotógrafos, etcétera, etcétera.

    Además, muchas empresas que no quieren pagar el trabajo de artistas reales están recurriendo a la IA para producir los videos publicitarios más (deja tú rancios) aburridos y genéricos posibles, que, lejos de que vendan, hacen que la gente sienta repelús.

    Y justo hace unas horas estaba con la Xime en la oficina viendo reels desde la cuenta de una señora y no mms, nos salían puros clips de “podcasts” de morras claramente generadas con IA, con más de medio millón de seguidores… ¿bots u orgánicos? honestamente no importa. El punto es que existen y que la gente, o no sabe distinguirlos de una persona real, o ya consumen cualquier cosa por pura inercia. Y justo en medio de eso nos apareció un video musical de Tilly Norwood, la “actriz” de la que vamos a hablar hoy.

    ¿Tilly Norwood who?

    Durante el ya lejano 2025, varias empresas comenzaron a explorar la posibilidad de construir “talento” digital con un solo propósito: ahorrarse salarios, chamba y ser dueñx sobre todo lo creado al rededor. Una de las entidades que nacieron por ello fue Tilly Norwood, creada Xicoia, la división de IA de Particle6 Group, empresa fundada por la actriz y productora neerlandesa Eline Van der Velden.

    El proyecto fue planteado como una “actriz” generada 100% IA sí fake, diseñada para integrarse en cualquier tipo de producción audiovisuales. Para darle promo le sacaron redes (actualmente tiene 157k en ig) y diablos, no se esforzaron en no hacer un rostro tan de IA genérica. Para venderla, la productora aseguró que con “talento” como el de ella podría reducir los costos de producción hasta en un 90%.

    El primer proyecto de Tilly Norwood el sketch “AI Commissioner”, estrenado en julio de 2025. Alch no ahórrense el disgusto de buscarlo, no da risa, está aburridísimo y está equis, no pierdan 2 minutos de su vida como yo (aunque los comentarios están cagados lols). En septiembre de ese año, el “corto” fue presentado en el Festival de Cine de Zúrich, y hasta buscaban que las agencias de talento consideraran representar a la bot (¿?).

    Funa no anulada

    Medios como The Guardian, PC Gamer y The A.V. Club destacaron que era muy uncanny valley. The Verge, por su parte, cuestionó el intento de normalizar “actores” de IA, tratando de dejar afuera la humanidad del cine.

    Actores y actrices como Melissa Barrera, Natasha Lyonne, Mara Wilson, Emily Blunt, Sophie Turner, Toni Collette, Ralph Ineson y Ariel Winter funaron la iniciativa y cuestionaron las implicaciones éticas, artísticas y económicas que Tilly Norwood hacía muy visibles.

    A la gente se le estaba olvidando, pero Particle6, al parecer no entendió. Hace unos días lanzaron como cantante a la Tilly y estrenaron el video musical de la canción “Take the lead”… y bueno…:

    Para empezar, decidieron hacer una base musical como de cuando estás en Envato buscando una canción random para un video y ya andas por la página 8, en donde ya todo suena igual y se ve que no le pusieron nada de voluntad a los audios. Muy rolita de Disney región 4 en desnutrición.

    En cuanto al videoclip… para ser un video de IA, lo más arriesgado que hicieron fue poner flamencos en las nubes. Ya de menos se hubieran inventado un corto de fantasía o algo como los de los chinos de TikTok.

    Y bueno, la canción es una defensa del uso de la IA. Señala que la tecnología no representa una amenaza, sino que es la “evolución”. Pero, wey, pudiendo hacer acá algo al menos visualmente impresionante, deciden lanzar algo peor que genérico. Y lo bueno es que al inicio del clip te presumen que 18 humanos participaron en esa blasfemia.

    La funa fue mundial y hasta en La Jornada salió (jajaja). En fin, la reflexión de todo esto es que la burbuja de la IA explotará, al parecer, en un futuro no muy lejano y las grandes corporaciones tecnológicas (o pymes) no van a soportar. Creen que con cosas como Tilly Norwood están devorando, pero el público consumidor ya se está cansando de que le quieran dar porquerías… o quizás saben que, poco a poco, la gente está dejando de lograr diferenciar lo real de la IA… ¿y si nos pasa como la mosca que ya vive en una simulación? (se pone su sombrero de aluminio).

  • Lyria 3 de Google y la erosión del oficio musical

    Lyria 3 de Google y la erosión del oficio musical

    Google presentó Lyria 3, el nuevo modelo de música generativa desarrollado por Google DeepMind, capaz de crear canciones completas (con letra, voz e instrumental) a partir de un prompt o incluso de una imagen subida por el usuario. La herramienta está integrada en Gemini y marca un paso más en la carrera por automatizar la creatividad (turbio).

    Según ha explicado Google, Lyria 3 no solo “mejora” la calidad del audio respecto a versiones anteriores, sino que introduce capacidades multimodales: puede “interpretar” imágenes y convertirlas en piezas musicales coherentes con la atmósfera visual. El salto no es técnico únicamente. Es conceptual.

    O sea, muy chido y todo, pero la IA está haciendo aquello que, en teoría, íbamos a hacer nosotros tras poner a chambear a los robots: el trabajo creativo. Y eso no nos gusta a muchos por las implicaciones éticas y artísticas que y tendrá.

    En 2023 y 2024, más de 200 artistas, como Billie Eilish y Stevie Wonder, firmaron una carta pública impulsada por la Artist Rights Alliance exigiendo regulaciones claras sobre el uso de IA en la música y denunciando el entrenamiento de modelos con obras protegidas sin consentimiento explícito.

    La preocupación no es hipotética: varias investigaciones de medios como Rolling Stone y The Guardian han documentado cómo modelos generativos han sido entrenados con grandes volúmenes de música existente, lo que ha desatado litigios en Estados Unidos y Europa.

    Además, el caso de canciones generadas por IA que imitaban voces de artistas, como FlowGPT que hizo llorar a Bad Bunny (aunque sí tenía unos temazos, la verdad) evidenció que la tecnología ya te puede reemplazar, sorta. Bueno, y si lo sumas con los deep fakes, las posibilidades son muuuuy turbias.

    Lyria 3 sí va a ser una herramienta divertida que te permita crear una balada sobre tu perro cojo o un perreito bien marrano basado en una de tus fotos familiares. Incluso le va a brindar posibilidades de creación a quienes no tienen conocimientos ni educación musical. Pero a qué costo.

    ¿Desaparecerán los músicos? claro que no, pero lo que sí sucederá es una erosión gradual del valor del oficio. La música hecha por humanos (al igual que cualquier expresión artística) implica tiempo, aprendizaje, error, vida y contexto. La música generada por IA implica velocidad, eficiencia y predicción estadística basada en patrones previos.

    Cuando cualquiera puede generar una “canción profesional” en segundos sin saber armonía, sin tocar un instrumento y sin escribir una línea, la experiencia artística se transforma en producción de contenido. El proceso deja de importar. Solo importa el resultado inmediato. Pero, seamos honestos, disfrutar del proceso es lo que le da sabor a la vida misma.

    No obstante, da curiosidad ver qué será el nuevo Tralalero Tralalá en versión auditiva. ¿Nos acercamos cada día más a una distopía tecnológica? Ya estamos ahí, viejx. Pero, al menos queda un consuelo: la IA jamás superará lo random de la mente mexicana, alv viejones.