Sonificando el Momentum Social: Un Pipeline de Datos a Audio con Claude AI
Cómo convertimos un artículo de investigación económica en una pieza de audio cinematográfica usando un pipeline de sonificación AI de 5 capas — de tablas PDF a MIDI, Max for Live y Ableton.
¿Cómo suena cuando un solo evento se propaga por una población, acumulándose semana tras semana? Esa fue la pregunta detrás de nuestro último experimento en Sombra Audio — y la respuesta vino de una fuente inesperada: un artículo académico sobre la venta de entradas de cine.
Escucha: "Momentum Cascade" — la pieza de sonificación final.
La Fuente: Spillovers Sociales en el Cine
Los datos provienen de "Something to Talk About: Social Spillovers in Movie Consumption" de Gilchrist y Sands (2016), publicado en el Journal of Political Economy. Los investigadores utilizaron variaciones meteorológicas inesperadas en los fines de semana de estreno como experimento natural para aislar cómo el boca a boca impulsa las ventas de entradas a lo largo del tiempo.
Su hallazgo clave: un shock climático positivo en el fin de semana de estreno no simplemente se desvanece. Cada fin de semana de espectadores genera su propio eco de conversaciones, que atraen a más espectadores, que generan más conversaciones. Para la semana 6, un shock de $1 en los ingresos del fin de semana de estreno ha generado $2.14 en ingresos totales. El multiplicador social se acumula de forma invisible — a menos que lo hagas audible.
El Pipeline: 5 Capas de PDF a Sonido
Construimos un pipeline de sonificación reutilizable usando Claude AI como orquestador en cinco capas:
1. Extracción de Datos — Scripts en Python analizan el PDF, extrayendo coeficientes de momentum, multiplicadores acumulativos, curvas de decaimiento de audiencia y métricas de calidad en CSV limpio.
2. Mapeo de Datos a Música — Este es el núcleo creativo. En lugar de decisiones estéticas arbitrarias, cada mapeo está fundamentado en The Sonification Handbook (Hermann, Hunt & Neuhoff, 2011). Cuatro capas musicales sonifican cada una una dimensión diferente de los datos:
| Capa | Dimensión de Datos | Expresión Musical |
|---|---|---|
| Pad | Multiplicador acumulativo (1.0 a 2.14) | La densidad de acordes crece de 1 a 5 voces — la masa polifónica se acumula |
| Bajo | Coeficiente de momentum (1.0 a 0.096) | Shock inicial profundo en C2 subiendo a C3 mientras los ecos se debilitan — con drone sub-octava entrando en la semana 3 |
| Eco | Progresión semanal (1 a 6) | Los fragmentos melódicos se multiplican de 1 a 6, extendiéndose por el espacio estéreo |
| Pulso | Aceleración temporal | Redondas a corcheas — un latido acelerado que construye urgencia |
3. Transporte — El pipeline genera un archivo MIDI multipista (480 PPQN, 48 compases a 72 BPM en Do menor natural) con automatización CC a resolución de fusas. Un streamer MIDI CC en tiempo real vía macOS IAC Driver proporciona control de parámetros en vivo, y un emisor OSC ofrece una alternativa para configuraciones personalizadas.
4. Motor de Sonido — Ableton Live con Max for Live. Un motor JavaScript personalizado lee la posición de transporte y emite 8 valores de automatización interpolados a 30 Hz, controlando corte de filtro, reverb, feedback de delay, amplitud estéreo y más.
5. Mejora con IA — Una capa opcional para que AudioCraft/MusicGen genere texturas ambientales informadas por las características de los datos. Framework listo, aún no desplegado.
¿Por Qué Do Menor Natural a 72 BPM?
Nada en esta pieza es arbitrario. Do menor natural (modo Eólico) no tiene sensible — la armonía nunca resuelve completamente, reflejando el hallazgo de la investigación de que el momentum social nunca decae por completo dentro de la ventana de observación. A 72 BPM, cada semana tiene aproximadamente 45 segundos para desarrollarse, apoyando una construcción lenta de tensión a lo largo de los 2:40 de duración total.
La velocidad también está dirigida por los datos. El shock inicial golpea a velocidad 100 (coeficiente 1.0, mayor significancia estadística). Para la semana 6, los ecos se han desvanecido a velocidad 40 (coeficiente 0.096) — incrustando los intervalos de confianza del artículo directamente en la dinámica de la interpretación.
El Arco: Del Shock a la Cascada
La pieza se despliega en seis secciones, cada una mapeando directamente a una semana de los datos de investigación:
Semana 1 — El Shock. Una sola voz de pad. Bajo profundo en C2. Un motivo descendente aislado. Pulso en redondas. Escaso y ominoso.
Semana 2 — Primer Eco. La segunda voz entra en el pad. El bajo sube a E2, más suave ahora. Dos fragmentos melódicos comienzan a extenderse. El pulso en blancas se agita.
Semanas 3 a 6 — La Cascada. El pad se espesa hasta cinco voces. Los fragmentos de eco se multiplican y saturan el campo estéreo. El pulso se acelera hasta corcheas — implacable y urgente. Un drone sub-octava añade peso debajo. En la sección final, el oyente está inmerso en la masa acumulada de seis semanas de momentum social compuesto.
No necesitas saber nada de econometría para sentir la construcción. Ese es el punto.
Lo Que Claude AI Realmente Hizo
Claude no solo escribió los scripts de Python. Operó como colaborador creativo en todo el pipeline:
- Analizó el artículo de investigación e identificó qué dimensiones de datos tenían mayor potencial narrativo
- Diseñó la estrategia de mapeo fundamentada en teoría de sonificación, sugiriendo qué parámetros auditivos representarían mejor cada dimensión de datos
- Generó el pipeline MIDI — Python puro sin dependencias externas más allá de
midopara I/O MIDI - Construyó el motor JavaScript de Max for Live con interpolación, detección de cambios y fade-in cuadrático para prevenir picos de parámetros
- Iteró en soluciones de transporte cuando las limitaciones de mapeo MIDI de Ableton requirieron cambiar de CC integrado a streaming externo vía IAC
- Documentó cada decisión con justificación teórica, creando un manual reutilizable para futuras sonificaciones
El pipeline está diseñado para ser generalizable. Sustituye el CSV por datos climáticos, precios de acciones, curvas epidemiológicas o señales neuronales — la arquitectura de 5 capas se mantiene.
Desafíos y Lecciones
El streaming MIDI CC en tiempo real desde Python tiene jitter temporal que es aceptable para automatización de efectos pero no para parámetros críticos de tono. El dispositivo Max for Live necesitó ensamblaje manual — generar archivos .amxd programáticamente no sobrevive a la carga por drag-and-drop de Ableton. Y el feedback de delay mapeado a densidad de datos requirió topes duros en 80/127 para prevenir auto-oscilación.
La mayor lección: la sonificación es composición con restricciones. Los datos determinan tu material, pero las decisiones de mapeo — qué dimensión controla qué parámetro, qué escala, qué tempo — son decisiones artísticas que requieren tanto fundamentación teórica como intuición musical. Claude AI maneja el mapeo sistemático; el oído humano tiene la última palabra.
Lo Que Viene
La pieza "Momentum Cascade" es una historia de datos de un solo artículo. El pipeline está listo para más: el análisis de la curva U meteorológica de la misma investigación, la divergencia de calidad entre películas bien y mal valoradas, o conjuntos de datos completamente diferentes. También estamos explorando una versión interactiva donde los oyentes puedan ajustar los parámetros de mapeo en tiempo real — remezclando los datos como un instrumento de interpretación.
Si te interesa el diseño sonoro basado en datos o quieres explorar la sonificación para tus propios proyectos, la arquitectura del pipeline y las estrategias de mapeo documentadas aquí son un buen punto de partida. La intersección entre ciencia de datos y producción de audio sigue siendo un campo abierto.
El pipeline de sonificación fue construido usando Claude AI, Python, Ableton Live y Max for Live. El artículo de investigación fuente está disponible: Gilchrist & Sands, "Something to Talk About: Social Spillovers in Movie Consumption," Journal of Political Economy, 2016.