IA en música 2026: avance real, pero vacío creativo

IA en música 2026: avance real, pero vacío creativo

Esta semana me dejó una sensación muy clara: la industria está corriendo en dos direcciones a la vez.

Por un lado, herramientas cada vez más útiles, más concretas, más “producto real”. Por el otro, un ruido legal y ético que no se resuelve con discursos bonitos. Y en el medio, lo que a mí me importa de verdad: que sin el elemento humano, la música se convierte en una concha vacía. Muy bien maquillada. Pero vacía.

Voy por partes, con lo más relevante.

1) ROLI AI Music Coach: por fin una “IA para aprender” que tiene sentido

El anuncio de ROLI AI Music Coach es de los pocos que siento que va en la dirección correcta: no “hacer música por ti”, sino ayudarte a aprender mejor.

La propuesta es simple y potente:

  • Un chatbot que te guía conversacionalmente mientras practicas.
  • Seguimiento de manos con cámara mediante Airwave, para ver cómo tocas, no solo qué tocas.
  • Feedback en tiempo real orientado a técnica y progreso.

ROLI lo enmarca como una experiencia “human-first”: la IA como coach que reduce fricción y te acompaña cuando practicas solo, no como reemplazo de un profesor. Y el detalle técnico importa: hablan de tracking fino de articulaciones y de feedback inmediato, con una beta cerrada para usuarios de Airwave y beta pública prevista para marzo de 2026.

Por qué esto es importante para mi visión (y para One Instrument):
Esto es exactamente el tipo de IA que me fascina: la que sube el nivel humano. Si mañana existiera un “AI Coach” equivalente para pads (Push / grids), estaríamos hablando de un salto enorme en pedagogía musical. Pero como digo: una cosa a la vez. Primero la version 1.0.

2) La creatividad “se siente” humana: el estudio de Carnegie Mellon y por qué vale citarlo

Aquí hubo una noticia que me gustó porque pone números a algo que yo vivo en carne propia: la IA puede mejorar muchísimo la apariencia, pero si no hay contenido humano detrás… queda vacío.

La IA puede mejorar muchísimo la apariencia, pero si no hay contenido humano detrás… queda vacío.

Dani Far West

Carnegie Mellon publicó un estudio donde testean justo esta tensión: la música generada o asistida por IA mejora, sí, pero la creatividad percibida sigue ganándola lo humano.

Cómo hicieron el estudio (en simple, para que se entienda)

  • Reunieron participantes con formación musical.
  • Les pidieron crear una melodía breve en un teclado.
  • A un grupo le dieron acceso a una herramienta generativa para inspirarse; otro grupo compuso sin IA.
  • Luego, otro grupo evaluó las melodías en variables como creatividad, disfrute y musicalidad.

Qué encontraron (lo relevante, sin humo)

El resultado apunta a algo concreto: cuando entra la IA, muchas piezas tienden a “optimizar” hacia lo seguro. Se vuelven más limpias, sí, pero también más previsibles. Y eso se paga en creatividad percibida.

Te lo digo en crudo: la IA puede ser un amplificador brutal, pero no inventa una vida interior.

3) Demandas a generadores musicales: el discurso “por los artistas” no me lo creo

En paralelo, vuelve el tema legal. Y aquí voy directo: cuando una major juega la carta de “proteger a los artistas”, yo automáticamente desconfío de esa narrativa.

Lo que veo es otra cosa: control y monetización de catálogo.

Mi duda central (la parte gris) es esta: ¿sobre qué base real van a demostrar “qué fracción” de una canción vive dentro de un modelo? La trazabilidad fina en modelos generativos no es trivial.

Lo que sí es claro es que el conflicto no va a desaparecer: la industria quiere evitar otro “Napster moment”, pero también quiere cobrar peaje por el acceso a esos catálogos en el futuro.

4) HeartMuLa y el empuje open-source: la alternativa crece, pero ojo con el dataset

La otra gran línea de la semana: open source en música subiendo de nivel.

HeartMuLa se está moviendo rápido y por fin aparece como “familia de modelos” seria: codec, modelo generativo, transcriptor de letras, alineación audio-texto, etc.

Ahora: la pregunta clave es de dónde sale el dataset. Y aquí hay que ser honestos: “open source” no significa automáticamente “dataset totalmente abierto y auditado”. Significa que el código/pesos y parte del pipeline son reproducibles, pero el debate ético de datos sigue ahí, salvo que publiquen trazabilidad clara.

Y aun así, el movimiento es importante: porque abre competencia, reduce dependencia de jardines cerrados, y acelera investigación real.

5) Mi conclusión de la semana: la IA es como una guitarra eléctrica o un sintetizador… hay que saber tocarla, hay que infundirle alma, si no es una cocha vacía.

Mi postura no es “IA buena” o “IA mala”. Es más simple:

  • La IA es tecnología. Como lo fue la guitarra eléctrica, el sampling o el autotune.
  • Puede liberar a gente que antes no tenía herramientas para expresarse.
  • Pero si tú no pones una verdad humana detrás, lo que sale puede ser impecable… y vacío.

Y aquí conecto con el punto más potente: cuando intentas integrar voces con técnica altísima, la IA queda expuesta; el humano tiene más recursos expresivos de los que el sistema puede sostener. En cambio, para alguien “un escalón más abajo” técnicamente, la IA puede ser una salvación: una puerta real a expresarse.

Ese es el uso que me interesa: ampliar el acceso, no reemplazar la cumbre.

Epílogo: hacia dónde miraría yo (si estuviera diseñando el futuro)

Si tengo que elegir un norte claro después de esta semana, es este:

  1. IA como coach (ROLI) → sube el nivel humano.
  2. Evidencia de percepción (CMU) → sin intención humana, el “valor” creativo cae.
  3. Negociación dura de catálogos (majors) → no es una cruzada moral, es negocio.
  4. Open source (HeartMuLa) → alternativa necesaria, pero exigir transparencia real de datos.

Eso es lo que pasó. Y eso es lo que importa.

© Dani Far West