Ha llegado el momento: ya no distinguimos la música generada por IA con Suno de la real en pruebas a ciegas

La IA musical ya está pasando el test de Turing, y falta por llegar el jefe final: OpenAI

Suno 2
Facebook Twitter Flipboard E-mail
antonio-saban

Antonio Sabán

Director

Recientemente hemos alcanzado un hito en Internet, según el análisis de Graphite.io: en octubre de 2025, el 53,5% de los artículos escritos online está generado con IA, mientras que el 46,5% está escrito por humanos. Es una tendencia que tomó mucha fuerza en 2022, con el lanzamiento de ChatGPT, y que nos avisa de lo que viene en otros frentes, como la música.

En ese sentido, la inteligencia artificial de Suno AI lleva mucho tiempo sorprendiéndonos. Hace más de un año, con Suno V3, ya vimos el enorme potencial que tenía esta tecnología para reírnos, sí, pero también para demostrar lo que venía. Y en la Universidade Federal de Minas Gerais han demostrado el punto en que estamos con el paper Echoes of Humanity: Exploring the Perceived Humanness of AI Music.

La IA musical ya pasa el test de Turing

Lo primero que hicieron en el estudio fue elegir pares de canciones para más de 600 participantes. Así, escucharon canciones de IA y humanas sin saber cuál era cual. Cuando las canciones en cada par eran aleatorias, es decir, cuando ambas canciones no compartían estilo o similitud, los oyentes acertaban de forma aleatoria, sobre el 50%

La cosa cambiaba cuando las canciones compartían estilo: en ese caso, la capacidad de detectar la canción generada por IA aumentaba un 13%. Otro hallazgo interesante, y algo esperable, fue que las personas con más de cinco años de experiencia musical tenían muchas más probabilidad de acertar sobre qué música era sintética. Los oyentes más mayores y sin formación práctica acertaron menos. Y no hubo correlación entre acertar más o menos con los distintos estilos.

Para entender el "cómo", los autores analizaron cientos de comentarios de los participantes. Las pistas más comunes (lo que hizo identificar mejor si la canción era humana o no) estaban en las voces. Marcaba mucho la decisión tono "robótico" o poco natural. También en detalles técnicos de mezcla y producción, como errores de poca profundidad, mezclas perfectas o o ecualizaciones planas. En cuanto a las letras, algunos notan incoherencias o simplicidad, pero en general los patrones eran sutiles: los participantes reconocían que “ambas canciones podían haber sido humanas”.

Las conclusiones son importantes para la industria musical: indica que en muchos casos, especialmente en escuchas casuales, la música generada por IA ya ha alcanzado un nivel indistinguible de la humana. Hasta el punto de que ocurren hecho como el que explicaba en Twitter Flo Crivello: "Mi novia descubrió hace poco que la banda que acaba de descubrir y que tanto le gusta en Spotify en realidad está generada con IA". La tendencia crecerá mucho si finalmente OpenAI entra en el mercado de la música creada con IA, como apunta su proyecto, aún en fase experimental.

Imagen | Dushawn Jovic y generada por IA

En Genbeta | La música hecha con IA es tan buena que ya recibe inversiones millonarias. Las discográficas amenazan con lo de siempre, demandar


Inicio