Jeg har arbejdet med deep learning, selvmodificerende og selvlærende programmer siden jeg første gang fandt ud af at computere  kunne programmeres. Jeg har nok været mere optimistisk omkring kunstig intelligens end de fleste, og har brugt meget tid på at eksperimenter med det.
I 90’erne var der stor optimisme omkring kunstig intelligens (AI), og mange it-folk forventede at AI ville udkonkurrere andre former for programmering inden år 2000. Sådan kom det ikke til at gå, og fordi udviklingen gik langsommere end “lovet”, forsvandt mediedækningen og dermed investorerne fra området.
Første gang jeg fik AI til at virke var i 1992, hvor jeg fik et computerprogram til at skrive teksten til “HÆÉÉ-HA!!”. Programmet skrev også titlen. Siden har jeg lave utallige eksperimenter, og har fået praogrammer til at skrive dele at værker. Absolut mindre dele, ganske små bidder.

Udviklingen har medført at AI er blevet mere effektiv indenfor de sidste år. Grafikprocessorer er utroligt effektive til at bearbejde neurale netværk, og stærke fortolkede sprog gør det lettere at lave selvmodificerende programmer.  Google, Facebook og andre har investeret enorme summer i AI, og har foræret superstærke biblioteker til Open Source bevægelsen, så alle kan prøve at eksperimentere med dem.

Ideen i at bruge AI er at nå nogle steder hen hvor min bevidsthed ikke ville nå hen. Cage gør det på én måde (ved tilfældigheder), og Xenakis gør det på en anden måde (ved hjælp af statistik) – AI gør det utvivlsomt på en helt tredje måde, hvis indre mekanisme vil være skjult for os som lyttere. Og som komponister.

Det er lykkedes mig at lave en kombination af neurale net, markov kæder og selvmodificerende programmer, som kan skrive musik. Ikke bare lyd, men en form for meningsfuld musik, som ikke ligger fantastisk langt fra hvad jeg selv ville have skrevet. Det er jo ikke svært at få et computerprogram til at lave lyd, det handler om at skrive tilfældige tal i en lydfil, men for at jeg vil kalde det musik, skal ejg kunne forstå det musikalsk. Og på den måde kan man sige at mine AI-programmer hjælper mig til at teste definitionen af musik: Hvilke former for færdigt resultat regner jeg for lyd, og hvilke afviser jeg. Og hvorfor. Selve det eksperiment er super spændende og lærerigt.
Jeg føder programmet med tekstbidder og et bibliotek af reallyde, og be’r det om at generere en opskrift. Dettet program laver altså ikke lyd, det laver en slags anvisninger, som et andet program spiller.
Dette sidste program er et javascript program, som fortolker anvisningerne. Det vil ikke nødvendigvis spille musikken på same måde hver gang, faktisk er det usandsynligt at det vil blive helt samme lyd, for det “lytter” til verden omkring sig, ligesom en menneskelig musiker ville gøre.