neuro science – Artificial Intelligence https://ars.electronica.art/ai/de Ars Electronica Festival 2017 Tue, 28 Jun 2022 13:43:24 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.6 Blade Runner—Autoencoded https://ars.electronica.art/ai/de/bladerunner-autoencoded/ Tue, 08 Aug 2017 14:42:21 +0000 https://ars.electronica.art/ai/?p=2623

Terence Broad (UK)

Der Film Blade Runner – Autoencoded entstand, indem man einen Autoencoder, also ein spezielles neuronales Netzwerk, trainierte, um Einzelbilder aus dem Film Blade Runner aus dem Jahr 1982 nachzubilden. Der Autoencoder lernt, alle Einzelbilder zu modellieren, indem er versucht, sie durch einen Informations-Engpass zu kopieren.

Er wurde dazu optimiert, Bilder zu schaffen, die den Originalbildern so ähnlich wie möglich sehen. Die daraus resultierende Sequenz weist eine traumähnliche Anmutung auf und schwankt zwischen Erkennen und Nichterkennen: An manche statische Sequenzen erinnert sich das Modell sehr gut, während es flüchtige Sequenzen – meist Szenen mit viel Bewegung – kaum verstehen kann.

Der Film Blade Runner basiert auf dem Roman Träumen Androiden von elektrischen Schafen? von Philip K. Dick und spielt in einer postapokalyptischen dystopischen Zukunft. Rick Deckard ist ein Kopfgeldjäger, der seinen Lebensunterhalt damit verdient, dass er Replikanten aufspürt und tötet. Replikanten sind künstliche Menschen, die so gut konstruiert sind, dass sie äußerlich nicht von menschlichen Wesen zu unterscheiden sind.

Anhand der Erinnerung, die der Autoencoder vom Film hat, interpretiert Blade Runner – Autoencoded den Film Blade Runner neu, um die unscharfe Grenze zwischen Replikant und Mensch im Film zu betonen, oder, wie im Falle des rekonstruierten Films, die Grenze zwischen unserer Erinnerung an den Film und den neuronalen Netzwerken. Betrachtet man diese mangelhafte Rekonstruktion, also den Blick einer körperlosen Maschine, genauer, fällt es leichter, die Fehler in unserer eigenen inneren Repräsentation der Welt anzuerkennen, und es wird einfacher, das Potenzial anderer, substantiell differenter Systeme zu erkennen, die ihre eigenen inneren Repräsentationen haben.

Credits

Carried out on the Msci Creative Computing course at the Department of Computing, Goldsmiths, University of London under the supervision of Mick Grierson.

]]>
Grasping https://ars.electronica.art/ai/de/grasping/ Tue, 08 Aug 2017 13:29:23 +0000 https://ars.electronica.art/ai/?p=2054

Dr. Manuela Macedonia (IT/AT)

Das Erlernen einer Fremdsprache im Erwachsenenalter ist eine Aufgabe, die mit viel Mühe verbunden und oft nur von mäßigen Resultaten begleitet ist. In einer wissenschaftlichen Experimentreihe untersuchen Dr. Manuela Macedonia und ihr Team von der Johannes Kepler Universität Linz in Kooperation mit dem Ars Electronica Center und der Universität Mailand das Erlernen von Sprache in einer virtuellen Umgebung.

BenutzerInnen trainieren in einer Virtual Reality-Umgebung nach lernpsychologisch und neurowissenschaftlich belegten Vorgangsweisen – zum Beispiel fremdsprachliche Vokabeln. Das Training erfolgt ubiquitär, also zeit- und ortsunabhängig, und personalisiert.

Bei Grasping, dem zweiten Experiment der Reihe, tauchen TeilnehmerInnen im Deep Space 8K des Ars Electronica Center in eine 3-D-Unterwasserwelt ein. Virtuell projizierte Alltagsgegenstände werden von den ProbandInnen mit ihren Händen abgetastet – also im wörtlichen Sinn „be-griffen“ („gegraspt“). Diese spezifische Bewegung unterstützt das Gehirn beim Merken der fremdsprachlichen Bezeichnungen der Objekte. Langfristig soll die Experimentreihe dazu beitragen, Lernumgebungen für mobile Geräte zu entwickeln.

Credits

Joint research project by the Ars Electronica Center, Johannes Kepler University Linz, and the Catholic University of the Sacred Heart, Milan: “Intelligent Machines that Make Humans Learn Foreign Languages”

Johannes Kepler Universität Linz: Dr. Manuela Macedonia, Michael Holoubek
Universität Wien: Mag. Astrid Elisabeth Lehner, Bakk.
Katholische Universität Sacro Cuore Mailand: Dr. Claudia Repetto
Ars Electronica Center: Mag. Erika Jungreithmayr
Ars Electronica Futurelab: Clemens F. Scharfen
Ars Electronica Museumstechnik: Thomas Kollmann, Florian Wanninger
Ars Electronica Solutions: DI. Mag. Ali Nikrang, Poorya Piroozan, MSc.

]]>
Hybrid Art – cellF https://ars.electronica.art/ai/de/hybrid-art-cellf/ Tue, 08 Aug 2017 10:46:34 +0000 https://ars.electronica.art/ai/?p=3250

Guy Ben-Ary (AU), Bakkum Douglas (US), Mike Edel (AU), Andrew Fitch (AU), Stuart Hodgetts (AU), Darren Moore (AU), Nathan Thompson (AU)

Es gibt eine überraschende Ähnlichkeit in der Art, wie neuronale Netze und analoge Synthesizer arbeiten: In beiden werden Signale empfangen und durch Komponenten bearbeitet, um Daten oder Ton zu erzeugen.

cellF verbindet diese beiden Systeme: Das „Gehirn“ dieser neuen Schöpfung besteht aus einem biologischen neuronalen Netzwerk, das in einer Kulturschale wächst und in Echtzeit analoge modulare Synthesizer kontrolliert. Der lebende Teil dieses völlig autonomen und analogen Instruments sind Nervenzellen. Diese wurden aus Guy Ben-Arys Fibroblasten (Zellen im Bindegewebe) gewonnen, die zunächst in Stammzellen zurückprogrammiert wurden.

Diese Stammzellen werden künstlich von Guy Ben-Ary in neuronale Stammzellen weiter entwickelt, die sich wiederum unter bestimmten Bedingungen im Labor in Nervenzellen differenzieren und ein neuronales Netzwerk bilden – Ben-Arys „externes Gehirn“. Die Aktivität dieses Gehirns kann durch den Input anderer, menschlicher MusikerInnen beeinflusst und über die analogen Synthesizer hörbar gemacht werden. Mensch und Instrument werden zu einer Einheit – zu einem „kybernetischen Rockstar“ aus der Petrischale.

Das Projekt wird während dem Ars Electronica Festival in der POSTCITY präsentiert.

]]>