Telharmonium, Thaddeus Cahill, 1897 La habilidad de grabar sonidos suele relacionarse con la
producción de música electrónica, si bien no es absolutamente necesaria para
ello. El primer dispositivo conocido capaz de grabar sonido fue el
fonoautógrafo, patentado en 1857 por Édouard-Léon Scott de Martinville. Podía
grabar sonidos visualmente, pero no estaba hecho para reproducirlos de nuevo.1 En 1878, Thomas A. Edison patentó el fonógrafo, que
utilizaba cilindros similares al aparato de Scott. Aunque se siguieron
utilizando los cilindros durante algún tiempo, Emile Berliner desarrolló el
fonógrafo de disco en 1887. Un invento significativo, que posteriormente
tendría una gran importancia en la música electrónica, fue la válvula audión,
del tipo tríodo, diseñada por Lee DeForest. Se trata de la primera válvula
termoiónica, inventada en 1906, que permitiría la generación y amplificación de
señales eléctricas, la emisión de radio, la computación electrónica, y otras
variadas aplicaciones. Con anterioridad a la música electrónica, existía un
creciente deseo entre los compositores de utilizar las tecnologías emergentes
en el terreno musical. Se crearon multitud de instrumentos que empleaban
diseños electromecánicos, los cuales allanaron el camino para la aparición de
instrumentos electrónicos. Un instrumento electromecánico llamado Telharmonium
(en ocasiones Teleharmonium o Dynamophone) fue desarrollado porThaddeus Cahill
en los años 1898-1912. Sin embargo, como consecuencia de su inmenso tamaño,
nunca llegó a adoptarse. Se suele considerar como el primer instrumento
electrónico el Theremin, inventado por el profesor Léon Theremin alrededor de
1919–1920.2 Otro primitivo instrumento electrónico fue el Ondes Martenot, que
se hizo conocido al ser utilizado en la obra Sinfonía Turangalila por Olivier
Messiaen. También fue utilizado por otros compositores, especialmente
franceses, como Andre Jolivet. [editar]Nueva estética de la música Artículo principal: Ferruccio Busoni. En 1907, justo un año después de la invención del tríodo
audion, Ferruccio Busoni publicó Esbozo de una Nueva Estética de la Música, que
trataba sobre el uso tanto de fuentes eléctricas como de otras en la música del
futuro. Escribió sobre el futuro de las escalas microtonales en la música,
posibles gracias al Dynamophone de Cahill: "solo mediante una larga y
cuidadosa serie de experimentos, y un continuo entrenamiento del oído, puede
hacerse este material desconocido accesible y plástico para la generación
venidera, y para el arte". Como consecuencia de este escrito, así como a través de su contacto
personal, tuvo Busoni un profundo efecto en multitud de músicos y compositores,
especialmente en su discípulo Edgard Varèse. [editar]Futurismo Artículo principal: Futurismo. En Italia, el futurismo se acercó a la estética musical en
transformación desde un ángulo diferente. Una idea fuerza de la filosofía
futurista era la de valorar el "ruido", así como dotar de valor
artístico y expresivo a ciertos sonidos que anteriormente no habían sido
considerados ni siquiera remotamente como musicales. El "Manifiesto
Técnico de la Música Futurista" de Balilla Pratella, publicado en 1911,
establece que su credo es: "presentar el alma musical de las masas, de las
grandes fábricas, de los trenes, de los cruceros transatlánticos, de los
acorazados, de los automóviles y aeroplanos. Añadir a los grandes temas
centrales del poema musical el dominio de la máquina y el victorioso reinado de
la electricidad". El 11 de marzo de 1913, el futurista Luigi Russolo publicó
su manifiesto "El arte de los ruidos" (en italiano en original,
"L'arte dei Rumori"). En 1914, organizó el primer concierto del
"arte de los ruidos" en Milán. Para ello utilizó su Intonarumori,
descrito por Russolo como "instrumentos acústico ruidistas, cuyos sonidos
(aullidos, bramidos, arrastramientos, gorgoteos, etc.) eran manualmente
activados y proyectados mediante vientos y megáfonos". En junio se
organizaron conciertos similares en París.
[editar]Música
concreta
Artículo principal: Música concreta. Desde alrededor de 1900 se utilizaba el magnetófono de
alambre magnético de baja fidelidad (lo-fi).4 y a comienzos de los años 1930 la
industria cinematográfica comenzó a convertirse a los nuevos sistemas de
grabación de sonido ópticos basados en células fotoeléctricas.5 En esta época
la empresa alemana de electrónica AEG desarrolla el primer magnetófono de cinta
práctico, el "Magnetophon" K-1, revelado en el Berlin Radio Show en
agosto de 1935.6 Durante la Segunda Guerra Mundial, Walter Weber redescubrió
y aplicó la técnica AC bias, que incrementó dramáticamente la fidelidad de las
grabaciones magnéticoas al añadir una frecuencia alta inaudible. Extendió en
1941 la curva de frecuencia del Magnetophone K4 hasta 10 kHz y mejoró la
relación señal/ruido hasta 60 dB7 sobrepasando cualquier sistema de grabación
conocido en aquel tiempo. En 1942, AEG ya estaba realizando pruebas de grabación en
estéreo.8 No obstante, estos dispositivos y técnicas fueron un secreto fuera de
Alemania hasta el final de la Guerra, cuando varios de estos aparatos fueron
capturados y llevados a Estados Unidos por Jack Mullin y otros. Estos
grabadores capturados sirvieron de base para los primeros grabadores de cinta
profesionales que fueron comercializados en Estados Unidos, el Model 200
producido por la empresa Ampex. La cinta de audio magnética abrió un vasto campo de
posibilidades sonoras para músicos, compositores, productores e ingenieros. La
cinta de audio era relativamente barata y muy confiable, y su fidelidad en la
reproducción mejor que cualquier otro medio de audio conocido hasta la fecha.
Más importantemente, y a diferencia de los discos, ofrecía la misma plasticidad
que la película: puede ser ralentizada, acelerada o incluso reproducirse al
revés. Puede editarse también físicamente, incluso sólo segmentos de la cinta.
O unirse diferentes trozos de cinta en loops infinitos que reproducen
continuamente determinados patrones de material pregrabado. La amplificación de
audio y el equipo de mezcla expandieron todavía más allá las posibilidades de
la cinta como medio de producción, permitiendo que múltiples grabaciones fueran
grabadas a la vez en otra cinta diferente. Otra posibilidad de la cinta era su
capacidad de ser modificada fácilmente para convertirse en máquinas de eco para
producir de modo complejo, controlable y con gran calidad efectos de eco y
reverberación (lo que es prácticamente imposible de conseguir por medios
mecánicos). Pronto los músicos comenzaron a utilizar el grabador de
cinta o magnetófono para desarrollar una nueva técnica de composición llamada
música concreta. Esta técnica consiste en la edición de fragmentos de sonidos
de la naturaleza o de procesos industriales grabados conjuntamente. Las primera
piezas de "musique concrète" fueron creadas por Pierre Schaeffer,
quien colaboró conPierre Henry. En 1950, Schaeffer dio el primer concierto (no
emitido) de música concreta en la École Normale de Musique de Paris.
Posteriormente ese año, Pierre Henry colaboró con Schaeffer en la Symphonie
pour un homme seul (1950), la primer obra importante de música concreta. En
París en 1951, en lo que se convertiría en una tendencia global, RTF creó el
primer estudio para la producción de música electrónica. También en 1951,
Schaeffer y Henry produjeron una ópera, Orpheus, para sonidos y voces
concretos.
Elektronische Musik Karlheinz Stockhausen en el Estudio de Música Electrónica de
WDR, Colonia, en 1991 Artículo principal: Karlheinz Stockhausen. Karlheinz Stockhausen trabajó brevemente en el estudio de
Schaeffer en 1952, y posteriormente durante muchos años en el Estudio de Música
Electrónica de la WDR de Colonia en Alemania. En Colonia, el que se convertiría en el estudio de música
electrónica más famoso del mundo, inició actividades en la radio de la NWDR en
1951, después de que el físico Werner Meyer-Eppler, el técnico de sonido Robert
Beyer y el compositor Herbert Eimert (que se convertiría en su primer director,
hasta 1962), convencieran al director de la NWDR, Hanns Hartmann, de la
necesidad de dicho espacio. El mismo año de su creación, 1951, fueron
transmitidos los primeros estudios de música electrónica en un programa
vespertino de la propia radio y presentados en los Cursos de Verano de
Darmstadt. En 1953 hubo una demostración pública en la sala de conciertos de la Radio de Colonia donde se
dejaron escuchar siete piezas electrónicas. Los compositores de los estudios
electrónicos eran Herbert Eimert, Karel Goeyvaerts,
Paul Gredinger, Henry Pousseur y Karlheinz Stockhausen. El programa comprendía las siguientes piezas: Karlheinz
Stockhausen: Estudio IIHerbert
Eimert: GlockenspielKarel Goeyvaerts: Composición
No. 5 Henry Pousseur: Sismogramas Paul Gredinger: Formantes I y II Karlheinz Stockhausen: Estudio I Herbert Eimert: Estudio sobre mezclas de sonido En su tesis de 1949, Elektronische Klangerzeugung:
Elektronische Musik und Synthetische Sprache, Meyer-Eppler concibió la idea de
sintetizar música enteramente desde señales producidas electrónicamente. De
esta manera, la elektronische Musik se diferenciaba abruptamente respecto a la
musique concrète francesa, que utilizaba sonidos grabados a partir de fuentes
acústicas. Con Stockhausen y Mauricio Kagel como residentes, el estudio
de música electrónica de Colonia se convirtió en un emblema del avant garde,
cuando se empezó ya a combinar sonidos generados electrónicamente con los de
instrumentos tradicionales. Ejemplos significativos son Mixtur (1964) y Hymnen,
dritte Region mit Orchester (1967). Stockhausen afirmó que sus oyentes le
decían que su música electrónica les daba una experiencia de "espacio
exterior", sensaciones de volar, o de estar en "un mundo de ensueño
fantástico". Música electrónica japonesa Si bien los primeros instrumentos eléctrico como el Ondes
Martenot, el Theremin y el Trautonium eran poco conocidos en Japón con
anterioridad a la Segunda Guerra Mundial, algunos compositores habían tenido
conocimiento de ellos en su momento, como Minao Shibata. Varios años tras la
Segunda Guerra Mundia, diferentes músicos en Japón comenzaron a experimentar
con música electrónica, a lo que contribuyó el apoyo institucional, lo que
permitió a los compositores experimentar con el último equipamiento de
grabación y procesamiento de audio. Estos esfuerzos dieron lugar a una forma
musical que fusionaba la música asiática con un nuevo género y sembraría las
bases del dominio japonés en el desarrollo de tecnología musical durante las
siguientes décadas. Tras la creación de la compañía Sony (conocida entonces como
Tokyo Tsushin Kogyo K.K.) en 1946, dos compositores japoneses, Toru Takemitsu y
Minao Shibata, de modo independiente escribieron sobre la posibilidad de
utilizar la tecnología electrónica para producir música hacia finales de los
años 1940. Hacia 1948, Takemitsu concibió una tecnología que pudiera
"traer ruido dentro de tonos musicales atemperados dentro de un pequeño y
complejo tubo", una idea similar a la musique concrète que Pierre
Schaeffer había aventurado el mismo año. En 1949, Shibata escribió sobre su
concepto de "un instrumento musical con grandes posibilidades de
actuación" que pudiera "sintetizar cualquier tipo de onda de
sonido" y que sea "manejado muy fácilmente," prediciendo que con
un instrumento tal, "la escena musical sería cambiada drásticamente".
Ese mismo año, Sony desarrolló el magnetófono magnético G-Type. En 1950, el estudio de música electrónica Jikken Kobo sería
fundado por un grupo de músicos que querían producir música electrónica
experimental utilizando magnetófonos Sony. Entre sus miembros estaban Toru
Takemitsu, Kuniharu Akiyama y Joji Yuasa, y estaba apoyado por Sony, empresa
que ofrecía acceso a la última tecnología de audio. La compañía contrató a
Takemitsu para componer música electroacústica electrónica para mostrar sus
magnetófonos. Más allá del Jikken Kobo, muchos otros compositores como Yasushi
Akutagawa, Saburo Tominaga y Shiro Fukai también estaban experimentando con
música electroacústica entre 1952 y 1953..
Música estocástica Artículo principal: Iannis Xenakis. Un importante desarrollo lo constituyó la aparación de
ordenadores utilizados para componer música, en contraposición de la
manipulación o creación de sonidos. Iannis Xenakis comenzó lo que se conoce
como "musique stochastique" o música estocástica, un método de
componer que emplea sistemas matemáticos de probabilidad estocásticos. Se
utilizaban diferentes algoritmos de probabilidad para crear piezas bajo un set
de parámetros. Xenakis utilizó papel gráfico y una regla para ayudarse a
calcular la velocidad de las trayectorias de los glissandos para su composición
orquestal Metastasis (1953-1954), pero posteriormente pasó a utilizar
ordenadores para componer piezas como ST/4 para cuarteto de cuerda y ST/48 para
orquesta.
Mediados hasta finales de los 1950 En 1954, Stockhausen compuso su Elektronische Studie II, la
primera pieza electrónica en ser publicada como banda sonora. En 1955, aparecieron más estudios electrónicos y
experimentales. Fueron notables la creación del Studio de Fonologia, un estudio
en el NHK de Tokio fundado por Toshiro Mayuzumi, y el estudio de Phillips en
Eindhoven, Holanda, que se trasladó a la Universidad de Utrecht como Instituto
de Sonología en 1960. La banda sonora de Forbidden Planet, de Louis y Bebe Barron,
fue compuesta completamente mediante circuitos caseros y magnetófonos en 1956.9 El primer ordenador del mundo en reproducir música fue el
CSIRAC, que fue diseñado y construido por Trevor Pearcey y Maston Beard. El
matemático Geoff Hill programó el CSIRAC para tocar melodías de música popular.
No obstante, el CSIRAC reproducía un repertorio estándar y no fue utilizado
para ampliar el pensamiento musical o para tocar composiciones más elaboradas. El impacto de los ordenadores continuó en 1956. Lejaren
Hiller y Leonard Isaacson compusieron Iliac Suite para un cuarteto de cuerda,
la primera obra completa en ser compuesta con la asistencia de un ordenador
utilizando un algoritmo en la composición. Posteriores desarrollos incluyeron
el trabajo de Max Mathews en Bell Laboratories, quien desarrolló el influyente
programaMUSIC I. La tecnología de vocoder fue otro importante desarrollo de
esta época. En 1956, Stockhausen compuso Gesang der Jünglinge, la
primera gran obra del estudio de Colonia, basado en un texto del Libro de
Daniel. Un importante desarrollo tecnológico fue la invención del sintetizador
Clavivox por Raymond Scott, con ensamblaje de Robert Moog. El sintetizador RCA Mark II Sound Synthesizer apareció en
1957. A diferencia de los primeros Theremin y Ondes Martenot, era difícil de
usar, requería una extensa programación, y no podía tocarse en tiempo real. En
ocasiones denominado el primer sintetizador electrónico, el RCA Mark II Sound
Synthesizer utilizaba osciladores de válvula termoiónica e incorporaba el
primersecuenciador. Fue diseñado por RCA e instalado en el Columbia-Princeton
Electronic Music Center, donse sigue actualmente. Posteriormente, Milton
Babbitt, influenciado en sus años de estudiante por la "revolución en el
pensamiento musical" de Schoenberg, comenzó a aplicar técnicas seriales a
la música electrónica.
1960-1970 Estos fueron años fértiles para la música electrónica, no
solo para la música académica sino también para algunos artistas independientes
a medida que la tecnología del sintetizador iba volviéndose más accesible.
Hacia esta época, una poderosa comunidad de compositores y músicos trabajando
con nuevos sonidos e instrumentos se había establecido y estaba creciendo. 1960
fue testigo de la composición Gargoyle de Luening para violín y cinta, así como
la premiere de Kontakte de Stockhausen para sonidos electrónicos, piano y
percusión. En Kontakte, Stockhausen abandonó la forma musical tradicional
basada en un desarrollo lineal y en un clímax dramático. En este nuevo
acercamiento, que él denominó como "forma momento", recuerda a las
técnicas de "cinematic splice" del cine de principios del siglo
veinte. El primer de estos sintetizadores en aparecer fue el Buchla.
Apareciendo en 1963, fue producto del esfuerzo del compositor de música
concreta Morton Subotnick. El theremin había sido utilizado desde los años 1920 pero
mantenía una cierta popularidad gracias a su utilización en numerosas bandas
sonoras de películas de ciencia ficción de los años 1950 (por ejemplo The Day
the Earth Stood Still de Bernard Herrmann). Durante los años 1960 el theremin
hizo aparaciones ocasionales en la música popular. En Reino Unido en este período, el BBC Radiophonic Workshop
(creado en 1958) emergió como uno de los estudios más productivos y renombrados
del mundo, gracias a su labor en la serie de ciencia ficción Doctor Who. Uno de
los artistas electrónicos británicos más influyentes de este período fue Delia
Derbyshire. Es famosa por su icónica ejecución en 1963 del tema central
deDoctor Who, compuesto por Ron Grainer, según algunos la pieza más conocida de
música electrónica del mundo. Derbyshire y sus colegas, entre los que se
encuentran Dick Mills, Brian Hodgson (creador del efecto de sonido TARDIS),
David Cain, John Baker, Paddy Kingsland y Peter Howell, desarrollaron un amplio
cuerpo de trabajo que incluye bandas sonoras, atmósferas, sintonías de
programas y efectos de sonido para BBC TV y sus emisoras de radio.
El compositor israelí Josef Tal en el Electronic Music
Studio de Jerusalén(~1965). A la derecha, el sintetizadorHugh Le Caine. En 1961 Josef Tal creó el Centre for Electronic Music in
Israel en la Universidad Hebrea, y en 1962 Hugh Le Caine llegó a Jerusalén para
instalar suCreative Tape Recorder en el centro.10 Milton Babbitt compuso su primer trabajo electrónico utilizando
el sintetizador (llamada Composition for Synthesizer) que fue creada mediante
el RCA en el CPEMC. La colaboraciones ocurrían superando las barreras de los
océanos y de los continentes. En 1961, Ussachevsky invitó a Varèse al
Columbia-Princeton Studio (CPEMC). Fue asistido por Mario Davidovsky y Bülent
Arel. La intensa actividad del CPEMC y en otros sitios inspiró la creación en
San Francisco del Tape Music Center en 1963 por Morton Subotnick, con otros
miembros adicionales como Pauline Oliveros, Ramón Sender, Terry Riley y Anthony
Martin. En el otro lado del Atlántico tuvo lugar el Primer Seminario de Música
Electrónica, en 1964 en Checoslovaquia, organizado en el Radio Broadcast
Station de Plzen. Se siguieron desarrollando nuevos instrumentos. Uno de los
más importantes avances tuvo lugar en 1964, cuando Robert Moog introdujo el
sintetizador Moog, el primer sintetizador analógico controlado por un sistema
integrado modular de control de voltaje. Moog Music introdujo posteriormente un
sintetizador más pequeño con un teclado, llamado Minimoog, que fue utilizado
por multitud de compositores y universidades, haciéndose muy popular. Un
ejemplo clásico del uso del Moog de gran tamaño es el álbum Switched-On Bach de
Wendy Carlos.
En 1966 Pierre Schaeffer fundó el Groupe de Recherches
Musicales (Grupo de Investigación Musical) para el estudio y la investigación
de la música electrónica. Su programación está estructurada a partir de un
compromiso en los procesos de difusión, investigación y creación de la música
contemporánea y las tendencias en videoarte e imagen más actuales. Sus
exhibiciones y conciertos son reproducidas en tiempo real mediante dispositivos
electrónicos, interfícies de audio-video y una plantilla de músicos y video
artistas nacionales e internacionales abiertos al uso de tecnologías punta.
Música por ordenador CSIRAC, el primer ordenador en tocar música, lo hizo
públicamente en agosto de 1951.11 Una de las primeras demostraciones a gran
escala de lo que se conoció como computer music (eninglés, "música por
ordenador") fue una emisión nacional pre grabada en la red NBC para el
programa Monitor el 10 de febrero de 1962. En 1961, LaFarr Stuart programó el
ordenador CYCLONEde la Iowa State University (un derivado del Illiac) para
tocar canciones sencillas y reconocibles a través de un altavoz amplificado
adherido a un sistema originalmente utilizado para temas administrativos y de
diagnóstico. Los últimos 1950, los años 1960 y la década de 1970 vieron
también el desarrollo de grandes marcos operativos para síntesis informática.
Desde 1957, Max Mathews de Bell Labs desarrolló los programas MUSIC, culminando
en MUSIC V, un lenguaje de síntesis directa digital. En París, IRCAM se convirtió en el principal centro de
investigación de música creada por ordenador, desarrollando el sistema
informácito Sogitec 4X,12 que incluía un revolucionario sistema de
procesamiento de señal digital en tiempo real. Répons (1981), obra para 24
músicos y 6 solistas de Pierre Boulez, utilizó el sistema 4X para transformar y
dirigir a los solistas hacia un sistema de altavoces.
Los compositores y músicos de jazz Paul Bley y Annette
Peacock fueron de los primeros en tocar en concierto utilizando sintetizadores
Moog hacia finales de los 1960. Peacock hacía un uso regular de un sintetizador
Moog adaptado para procesar su voz tanto en el escenario como en grabaciones de
estudio. [editar]Sintetizadores Véanse también: Minimoog y Korg Moog, a finales de 1963, conoció al compositor experimental
Herbert Deutsch, quien, en su búsqueda por sonidos electrónicos nuevos, inspiró
a Moog a crear su primer sintetizador, el Moog Modular Synthesizer El Moog, aunque era conocido con anterioridad por la
comunidad educativa y musical, fue presentado en sociedad en el otoño de 1964,
cuando Bob hizo una demostración durante la Convención de la Sociedad de
Ingeniería de Audio (Audio Engineering Societen) celebrada en Los Ángeles. En
esta convención, Moog ya recibió sus primeros pedidos, y el negocio despegó. La compañía Moog Music creció de forma espectacular durante
los primeros años, haciéndose más conocida cuando Wendy Carlos edita el álbum
Switched on Bach. Bob diseño y comercializó nuevos modelos, como el Minimoog la
primera versión portátil del Moog Modular, el Moog Taurus (teclado de pedales
de una octava de extensión, con transposición para bajos y agudos), el PolyMoog
(primer modelo 100% polifónico), el MemoryMoog (polifónico, equivalía a seis
MiniMoog's en uno), el MinitMoog, el Moog Sanctuary, etc. Moog, no supo gestionar bien su empresa y esta paso de tener
listas de espera de nueve meses a no recibir ni un sólo pedido. Agobiado por
las deudas, perdió el control de la empresa, que fue adquirida por un
inversionista, aunque continuó diseñando instrumentos musicales para él hasta
1977, cuando abandonó Moog Music y se mudó a un pequeño poblado en las montañas
Apalaches. Sin Bob, la Moog Music se fue a pique poco después. KORG,en 1967 Kato se acercó al Ingeniero Fumio Mieda, quien
deseaba iniciarse en la construcción de teclados musicales. Impulsado por el
entusiasmo de Mieda, Kato le pidió construir un prototipo de teclado y 18 meses
después Mieda le presentó un órgano programable. La compañía Keio vendió este
órgano bajo la marca Korg, hecha de la combinación de su nombre con la palabra
órgano, en inglés (Organ). Los órganos producidos por Keio fueron exitosos a finales de
los años 60' y principios de los 70' pero, consciente de la competencia con los
grandes fabricantes de órganos ya establecidos, Kato decidió usar la tecnología
del órgano electrónico para construir teclados dirigidos al mercado de los
sintetizadores. De hecho, el primer sintetizador de Keio (MiniKorg) fue
presentado en 1973. Después del éxito de este instrumento, Keio presentó
diversos sintetizadores de bajo costo durante los años 70' y 80' bajo la marca
Korg.