Das neue Ars Electronica Center
Pressetext als PDF
Compass – Navigating the Future / Ausstellungen
Fotos auf Flickr
Hyperlapse-Video des Umbaus auf Youtube
Opening Video auf Youtube
Open Day Video auf Youtube
(Linz, 27.5.2019) Neue Ausstellungen, neue Labore, neue Vermittlungs-formate, ein neues Selbstverständnis – mit „Compass – Navigating the Future“ schlägt das Linzer Ars Electronica Center das nächste Kapitel auf. Bislang ein Fernrohr, das den Blick in die Zukunft eröffnete, wandelt sich das Ars Electronica Center nun zum Kompass und Begleiter durch die von uns Menschen geschaffenen Systeme des 21. Jahrhunderts. 4 Millionen Euro investieren die Stadt Linz (2,5 Millionen Euro) und Ars Electronica (1,5 Millionen Euro) in das neue Museum der Zukunft.
Die Neuerfindung des Ars Electronica Center
„Wir haben sämtliche Ausstellungen neu gestaltet, eine ganze Etage zum Labor umgebaut, alle Führungen, Workshops und unser Schulprogramm neu konzipiert“, so Gerfried Stocker, Künstlerischer Leiter von Ars Electronica. Das neue Ars Electronica Center bietet eine Fülle interaktiver Szenarien, künstlerische Werke, wissenschaftliche Forschungsprojekte, Info-Stationen, Werkstätten und Labore, die sich allesamt um aktuelle Entwicklungen in den Bereichen Artificial Intelligence, Neurowissenschaften, Neuro-Bionik, Robotik, Prothetik, autonome Mobilität sowie Gen- und Biotechnologie drehen. Im Zentrum der Aufmerksamkeit stehen aber die Auswirkungen vor allem einer Technologie: „Artificial Intelligence stößt gerade eine Revolution an, deren Bedeutung für unser Leben gar nicht überschätzt werden kann“, so Gerfried Stocker. „Ob in Wirtschaft und Industrie, in der Wissenschaft, der Kunst oder der Politik – Anwendungen wie ‚Machine Learning‘ werden überall zum Einsatz kommen und grundlegende Veränderungen nach sich ziehen.“ Höchst an der Zeit also, sich mit diesem nächsten Game Changer zu befassen.
Fokus auf Artificial Intelligence
„Nirgendwo sonst kann man sich ein so umfassendes Bild von AI machen wie bei uns“ sagt Gerfried Stocker. Die Ausstellung „Understanding AI“ zeigt, wie neuronale Netze aufgebaut sind und bietet Besucherinnen und Besuchern mit interaktiven Stationen die Möglichkeit, neuronale Netze selbst zu trainieren. Im neuen „Machine Learning Studio“ kann jede und jeder mit konkreten Anwendungen von AI experimentieren: selbstfahrende Autos werden gebaut und getestet, Roboter mit Gesichtserkennung programmiert. Die Ausstellung „Neuro-Bionik“ vermittelt, welch Quantensprung die Verschmelzung von Konnektomforschung und AI womöglich bewirken wird. Die Ausstellung „Global Shift“ zeigt, welche Rolle neuronale Netze bei der wissenschaftlichen Erforschung unseres Planeten spielen und wie sie beitragen, Herausforderungen wie etwa dem Klimawandel zu begegnen. Der Besuch des neuen Ars Electronica Center soll allen eine grundsätzliche Vorstellung davon vermitteln, was AI ist und wozu ihre Anwendungen fähig sind: „Wir wollen unsere Besucherinnen und Besucher AI-fit machen“, bringt Gerfried Stocker die Mission des neuen Hauses auf den Punkt.
Neues Ars Electronica Center wichtig für die Marke Linz
„Linz ist Standort der voestalpine, vieler Hightech-Unternehmen, der JKU, der Kunstuniversität, einer lebendigen Startup-Szene und natürlich der Ars Electronica. Linz ist eine Stadt der Innovation. Neue Technologien schlagen hier nicht nur zu allererst auf, sie werden in Linz mitentwickelt. Sie werden hier aber auch hinterfragt und auf die Probe gestellt. Denn eine Stadt der Innovation zu sein, heißt auch, nicht aus dem Blick zu verlieren, dass unsere Zukunft durch Technologie lebenswerter und nachhaltiger werden sollte. Das neue Ars Electronica Center steht für einen solchen positiven, aber kritischen Zugang. Es zeigt, welches Potential neue Technologien, allen voran ‚Artificial Intelligence‘, mit sich bringen, es macht aber auch klar, dass es an uns liegt, was wir daraus machen“, so Bürgermeister Klaus Luger zur Neuerfindung des Ars Electronica Center.
„Linz ist UNESCO City of Media Arts. Wer durch das neue Ars Electronica Center geht, weiß warum. Jeder Rundgang hier gerät zu einem inspirierenden und faszinierenden Ausflug in Zukunftsfelder und -branchen und regt an, weiter zu denken, weiter zu gehen – kurz, macht Lust auf Zukunft. Befeuert wird das durch die Kunst, die hier überall auf Augenhöhe mit Wissenschaft und Wirtschaft in Szene gesetzt wird. Wer wissen möchte, welche Technologien heute die größten Veränderungen anstoßen und wie sie funktionieren, wer selbst aktiv werden und unsere Zukunft mitgestalten will, muss das neue Ars Electronica Center besuchen“, so Doris Lang-Mayerhofer, Linzer Kulturstadträtin und Beiratsvorsitzende von Ars Electronica.
Mehrwöchiges Eröffnungsprogramm
Eröffnet wird das neue Museum der Zukunft mit einem mehrwöchigen Programm. Startschuss ist der erste offizielle Eröffnungsevent heute Abend, Montag, 27. Mai 2019, um 19:00 Uhr. Erstmals präsentiert werden dann die neuen „Ars Electronica Labs“, das neue „Machine Learning Studio“ sowie die Ausstellungen „Understanding AI“ und „Global Shift“.
Donnerstag, 30. Mai 2019, lädt das neue Ars Electronica Center zum Tag der Offenen Tür. Geboten werden Kurzpräsentationen, Workshops und Vorträge, der Eintritt ist kostenlos.
Freitag, 31. Mai bis einschließlich Sonntag, 2. Juni, folgt das Eröffnungswochenende.
Bis einschließlich Sonntag, 21. Juli 2019, steht jedes Wochenende dann unter einem anderen Motto. Das Team der Ars Electronica sowie zahlreiche Expertinnen und Experten aus Kunst und Wissenschaft laden zu Spezialführungen durch die Ausstellungen, halten Workshops in den neuen Labs und geben Einblick in aktuelle Trends ihrer Disziplinen:
DO 6. Juni bis SO 9. Juni:
Künstliche Intelligenz – die Revolution hinter dem Hype
DO 13. Juni bis SO 16. Juni:
Aufbruch in eine neue Welt – die digitale Geografie des 21. Jahrhunderts
DO 20. Juni bis SO 23. Juni:
Not just for Fun – Spielen und Forschen
DO 27. Juni bis SO 30. Juni:
Die Optimierung unseres Körpers – sind Cyborgs die besseren Menschen?
DO 4. Juli bis SO 7. Juli:
Das Gehirn des Menschen – die Evolution in Vollendung?
DO 11. Juli bis SO 14. Juli:
50 Jahre Mondlandung – die Neuerfindung der Zukunft
SO 21. Juli:
50. Jahrestag der Mondlandung
Montag, 24. Juni 2019, 19:00 Uhr findet der zweite offizielle Eröffnungsevent des neuen Ars Electronica Center statt. Erstmals vorgestellt werden an diesem Abend drei weitere neue Ausstellungen: „AI x Music“, „Mirages & Miracles“ und das „Kinderforschungslabor“.
Compass – Navigating the Future
Die Geschichte des Menschen ist untrennbar mit Technologie verbunden. Das jüngste Kapitel dieser Geschichte steht ganz im Zeichen der Digitalen Revolution, mit der die Entwicklung neuer Technologien exponentielle Beschleunigung erfahren hat. Das Ergebnis ist in jeder Hinsicht außergewöhnlich. Wir haben eine Welt kreiert, die aus realen und virtuellen Räumen besteht, die nahtlos ineinander übergehen und sich permanent überlagern. Eine Welt, in der wir längst nicht mehr die einzigen Protagonistinnen und Protagonisten sind. Ausgehend von den Produktionsstraßen in unseren Fabriken teilen wir immer weitere Teile dieser Welt mit immer intelligenteren künstlichen Systemen.
Enormen Schub erhielt diese Entwicklung jüngst von neuronalen Netzen, die eine Revolution in den Computerwissenschaften ausgelöst haben: Software wird nicht länger von Menschen programmiert, sondern lernt sich selbst aus Daten. „Die Auswirkungen des aktuellen ‚AI-Sommers‘ werden massiv sein“, sagt Gerfried Stocker. „Nachdem wir unseren Maschinen mit Sensoren beigebracht haben zu sehen, zu hören und zu tasten, machen wir uns nun mit künstlichen neuronalen Netzen daran, das Denken und Entscheiden zu digitalisieren.“ Gerade weil Technologie damit noch leistungsfähiger und mächtiger wird, sind wir Menschen in Zukunft nicht weniger, sondern mehr gefordert, die Gestaltung unserer Zukunft aktiv in die Hand zu nehmen. „Ganz egal wie intelligent Maschinen und Programme eines Tages sein werden, es wird immer von uns abhängen, ob sie Ursache unserer Probleme oder Teil ihrer Lösung sind“, so Gerfried Stocker. Um möglichst weit nach vorn zu blicken, braucht es ein Fernrohr. Um aber entscheiden zu können, in welche Richtung man navigieren will, braucht es einen Kompass.
Die Ars Electronica Labs
Ein Labor ist ein Knotenpunkt von Kreativität, Technik, Gesellschaft und Wissenschaft. Es ist ein Ort, an dem die Welt entdeckt und mitgestaltet wird. Unabdingbar dabei ist die Zusammenarbeit über die Grenzen von Disziplinen und Branchen hinweg – Forschung lebt immer schon vom Austausch. Genau das wollen die Ars Electronica Labs vermitteln.
Im Bio Lab
Technologie ist das Sinnbild für unsere Herrschaft über den Planeten. Indem wir sie zum Einsatz bringen, gestalten wir aber längst nicht mehr nur das Antlitz der Erde nach unseren Vorstellungen. Wir greifen immer öfter und immer tiefer direkt in die Entstehung und Gestaltung des Lebens ein. Zum einen beschert uns das neue Möglichkeiten zur Behandlung und Verhinderung von Krankheiten. Zum anderen wirft es immer öfter zutiefst ethische Fragen auf. Im Bereich der Stammzellenforschung etwa. Oder dem „Tissue Engineering“, der künstlichen Herstellung von biologischem Gewebe.
Mit dem längerfristigen Projekt „_zusammen_ziehen“ zeigt Manuel Selg von der FH Oberösterreich im neuen Bio Lab wie Muskelgewebe gezüchtet werden kann. Besucherinnen und Besucher können mitverfolgen, wie aus Muskelvorläuferzellen von Mäusen und Ratten Muskelgewebe entsteht.
Das Bio Lab des neuen Ars Electronica Center eröffnet die Möglichkeit, die eigene DNA zu isolieren und Zellkulturen zu kultivieren. Erstmals können Besucherinnen und Besucher hier sogar die zuletzt in die Schlagzeilen geratene Gen-Schere „CRISPR/Cas9“ ausprobieren. Jede und jeder kann selbst erleben, wie einfach und gezielt mit diesem Werkzeug einzelne Gene eingefügt, entfernt oder ausgeschaltet werden können.
Im Material Lab
Klimawandel, zunehmende Ressourcenknappheit und schlechte Arbeitsbedingungen – nachhaltige und soziale Produktionsformen sind ein zunehmend bedeutsames Thema. Mit im Zentrum der Aufmerksamkeit steht dabei die Materialforschung. Neue Werkstoffe verfügen über neue mechanische, physikalische und chemische Eigenschaften, die wiederum bahnbrechende Anwendungen in den Zukunftsfeldern Energiegewinnung, Klima- und Umweltschutz, Mobilität, Medizin und Gesundheit, Sicherheit und Kommunikation möglich machen. Innovative Materialien sind Treiber nachhaltiger Produkte, sie erhöhen Wirkungsgrade, steigern Effizienz und befördern damit Wettbewerbsfähigkeit wie ökologische Nachhaltigkeit.
Dass wir bei der Gestaltung unserer Umwelt und der Kreation neuer Stoffe mitunter sehr weit gehen, thematisiert „Modified Paradise“ (AnotherFarm), eine Serie tierischer Skulpturen aus Seide, die unter UV-Licht leuchtet. Produziert wurde diese Seide von Raupen, in deren DNA Gene leuchtender Quallen und Korallen eingefügt wurden. Sämtliche Skulpturen von „Modified Paradise“ sehen wie Katzen und Hühner aus – Tiere, zu denen wir Menschen seit Jahrtausenden Beziehungen pflegen, die wir als Nutz- und Haustiere halten, züchten und nun auch genetisch verändern.
Im Second Body Lab
Seit jeher entwickeln wir Menschen Technologien, die uns stärker, schneller und gesünder machen und unser Leben einfacher, leichter und lebenswerter gestalten. Lange Zeit beschränkte sich dies auf bloße Werkzeuge, in jüngster Vergangenheit dringt Technologie zunehmend in unsere Körper ein. Beispiele dieser neuen Schnittstellen zwischen Mensch und Maschine zeigt das Second Body Lab des neuen Ars Electronica Center.
„The Alternative Limb Project“ (Sophie de Oliveira Barata) betrachtet Prothesen nicht nur als Erweiterung unseres Körpers, sondern auch unserer Persönlichkeit. Die Fertigung dieser Kunstwerke verbindet neue Technologien mit traditionellem Handwerk. Im Second Body Lab werden drei solche Beinprothesen und drei maßgeschneiderte künstliche Finger gezeigt.
Einen anderen Zugang verfolgt das „IKO Prosthetic System“ (Carlos Arturo Torres Tovar). Das leicht bedienbare Prothesensystem baut auf dem Spieleklassiker LEGO auf und will körperlich beeinträchtigten Kindern helfen, Vertrauen zu ihrem Körper zu finden. Der ungezwungene Schaffensprozess des LEGO-Spiels schafft dabei eine Atmosphäre, in der soziale und emotionale Fähigkeiten genau wie das Verständnis für kreative Lösungswege gefördert werden.
Das „Unicorn Brain Interface“ (g.tec medical engineering) ist ein tragbares EEG-Headset, das Gehirnaktivitäten mittels acht spezieller Elektroden an der Großhirnrinde erfasst. Die zukunftsweisende Neurotechnologie macht es möglich, Wörter und Sätze am Computer zu schreiben, zu zeichnen oder Haushaltsgeräte, Prothesen und Roboter mit Gedanken zu steuern. Das „Unicorn Brain Interface“ eröffnet außerdem neue Möglichkeiten für Künstlerinnen und Künstler und Wissenschaftlerinnen und Wissenschaftler, um EEG-Signale aufzunehmen, zu analysieren und mithilfe von offenen Programmierschnittstellen (APIs) eigene Programme, Anwendungen oder künstlerische Installationen zu gestalten.
Im Citizen Lab
Viele aktuelle soziale, ökologische, ökonomische und politische Verwerfungen sind dem rasanten technologischen Fortschritt geschuldet. Tagtäglich lesen wir von mannigfaltigen Herausforderungen, denen wir uns stellen müssen, wollen wir eine lebenswerte Zukunft für uns sicherstellen. Was aber tun, wenn man keine Politikerin und kein Politiker, keine Forscherin und kein Forscher und auch keine Konzernchefin und kein Konzernchef ist? Das „CitizenLab“ des neuen Ars Electronica Center zeigt, wie jede und jeder einzelne von uns unsere Welt aktiv mitgestalten kann.
Klein angefangen hat auch Greta Thunberg. Am 20. August 2018, dem ersten Schultag nach den Ferien, stand sie allein vor dem Schwedischen Reichstag in Stockholm und hielt ein Schild in die Höhe auf dem „Skolstrejk för klimatet“ („Schulstreik für das Klima“) geschrieben stand. Heute zählt sie zu den einflussreichsten Teenagern überhaupt. Mit ihrem Engagement hat die 16-jährige Klimaschutzaktivistin Schülerinnen und Schüler rund um die Welt inspiriert und eine globale Bewegung ausgelöst: „Fridays For Future.“
Auch “Bellingcat” steht für Verantwortung, Engagement und Vernetzung. Die Online-Plattform bündelt Recherchen von Citizen-Journalists, die kriminelle Machenschaften dokumentieren. Neben der Publikation und Verbreitung von Artikeln und Reportagen, bietet “Bellingcat” Anleitungen und Guides für all jene, die ebenfalls als Citizen-Journalists aktiv werden und helfen wollen, Fakten und Beweise zu sichern, die für die gerichtliche Aufarbeitung von organisierter Kriminalität oder Kriegsverbrechen relevant sind.
Understanding Artificial Intelligence
Artificial Intelligence (AI) ist in aller Munde. Ob selbstfahrende Autos, der News-Feed von Facebook, Sprachassistenten wie Siri (Apple), Cortana (Microsoft), Alexa (Amazon) oder Assitant (Google), die FaceID der neuesten iPhone-Generation, Google Translate oder Diagnoseverfahren in der Medizin – hinter all diesen Dingen stecken schon heute Anwendungen von AI. Mit der Ausstellung „Understanding Artificial Intelligence“ zeigt das neue Ars Electronica Center wie diese Systeme funktionieren.
Gleich eingangs werden Besucherinnen und Besucher von einem großen „Auge“ erfasst und fotografiert. Ein „Generative Adversarial Network“ – kurz GAN – kreiert aus diesen Aufnahmen Portraits, die wenige Meter weiter auf Screens zu sehen sind. Es sind „Fake Faces“, künstliche Gesichter, die aus Tausenden unterschiedlichen Bildern erzeugt werden und vollkommen echt wirken.
Es sind solche „Deep Fakes“, mit denen AI regelmäßig für (Negativ-) Schlagzeilen sorgt. Vor wenigen Tagen erst gelang es Forscherinnen und Forschern, „Deep Fake Videos“ aus einzelnen Fotos zu kreieren. Albert Einstein, Marilyn Monroe, Salvador Dali, ja sogar die Mona Lisa – das neue Ars Electronica Center zeigt sie alle quietschlebendig in perfekt gefälschten Videos.
Ähnlich polarisierend eine andere Anwendung von AI: Während die einen in „Face Recognition“ ein höchst willkommenes Werkzeug für mehr Sicherheit sehen, erkennen die anderen ein Instrument des absoluten Überwachungsstaates.
Wie können diese Systeme Objekte wie Gesichter eigentlich erkennen oder sogar selbst welche erzeugen? Genau wie unser Gehirn müssen auch künstliche neuronale Netze erst einmal mitbekommen, was um sie herum überhaupt vor sich geht. Das neue Ars Electronica zeigt, wie das Zusammenspiel von Wahrnehmung und Gehirn bei uns Menschen funktioniert – und wie wir dies bei Maschinen mittels Sensoren nachempfinden. Messdaten werden gesammelt, dann weitergeleitet und schließlich ausgewertet. Im Fall künstlicher neuronaler Netze heißt das, Datensätze nach Mustern zu durchforsten, die wiederum Aufschluss darüber geben, ob diese oder jene Handlung mehr Erfolg verspricht.
Um dies spielerisch begreifbar zu machen, hat das Ars Electronica Futurelab interaktive Stationen entwickelt, an denen Besucherinnen und Besucher neuronale Netze beim Lernen und „Denken“ erleben können:
Muss sich eine Maus vor einem Elefanten fürchten? Vor einer Forelle? Einer Katze? Indem Besucherinnen und Besucher diese Fragen beantworten, trainieren sie ein künstliches neuronales Netz. Jede ihrer Antworten liefert dem System einen weiteren Hinweis darauf, welcher Kombination aus Eigengewicht, Größe, Schnelligkeit, Krallen und Zähnen eine Maus tunlichst aus dem Weg gehen sollte.
Wie ein bereits trainiertes „Convolutional Neural Network“ – kurz CNN – funktioniert, oder besser, was genau es sieht, zeigt eine raumgreifende Installation des Ars Electronica Futurelab. Die Versuchsanordnung dabei ist einfach: Mittels einer Kamera wird ein beliebiges Objekt zunächst fotografiert und dieses Bild dann an das CNN geschickt. Auf 11 großen Screens ist zu sehen, wie dieser visuelle Input nun weiterverarbeitet wird. Schicht für Schicht lernt das Netzwerk bestimmte Muster des Bildes zu erkennen. Während die ersten Schichten bloß Linien, Farben und Kurven erfassen, spezialisieren sich nachfolgende Schichten auf immer komplexere Formen. Je abstrakter das ursprüngliche Bild dabei für uns aussieht, desto klarer wird der Fall aus Sicht des CNNs.
Die Entwicklung solcher künstlicher neuronaler Netze ist von unserem Gehirn inspiriert. Seit Jahrhunderten erforschen Wissenschaftlerinnen und Wissenschaftler unser Gehirn und entwickeln dabei immer ausgefeiltere Techniken. Mit Animationen, Infotexten und Grafiken gibt das neue Ars Electronica Center einen Überblick darüber, was wir bis jetzt über unser Gehirn, seine Architektur und Funktionsweise herausgefunden haben. Und es zeigt mit dem „Cardiff Brain Scan“ (Cardiff University), welch beeindruckende Bilder wir heute mit Verfahren wie „Cinematic Rendering“ aus wissenschaftlichen Messdaten kreieren können.
Die Neuro-Bionik
Auch wenn künstliche neuronale Netze nicht wie das menschliche Gehirn funktionieren, sind viele ihrer Spielarten, etwa des aktuell so erfolgreiche „Machine Learning“ vage der menschlichen Physiologie entlehnt. Ein noch relativ junger Ansatz der AI-Forschung geht einen Schritt weiter: Biologische Nervensysteme werden digital nachgebildet und anschließend auf Roboter übertragen.
Mit „Open Worm“ (OpenWorm Foundation) zeigt das neue Ars Electronica Center ein Beispiel für diese Verschmelzung von Neurowissenschaften und AI. Im Mittelpunkt dieses Projekts steht Caenorhabditis Elegans, ein millimeterkleiner Rundwurm, dessen Konnektom aus 302 Neuronen besteht, die rund 5000 Synapsen bilden. Dieses recht simple Netzwerk von Nervenzellen wurde digitalisiert und in den Mikrocontroller eines Roboterwurms eingespeist. Das Ergebnis: Ohne jede zusätzliche Programmierung kann dieser Roboter navigieren und nach virtuellem Essen suchen.
Wenngleich dieses erstaunliche Experiment der nächste Schritt hin zu noch schneller lernenden, noch intelligenteren AI-Systemen sein könnte, heißt das nicht, dass eine „starke“ AI deshalb näher rückt. Die Leistungsfähigkeit und Vielseitigkeit des menschlichen Gehirns ist unerreicht. Ganze 650 Millionen Jahre hat die Evolution gebraucht, um seine einzigartige Komplexität auszuformen. Eine Komplexität, die sich aus rund 86 Milliarden Neuronen speist, die rund 100 Billionen Synapsen bilden – und von uns noch weitgehend unverstanden ist.
Im Machine Learning Studio
„Machine Learning“ ist die derzeit populärste Anwendung von AI. Es handelt sich dabei um neuronale Netze, die sich selbständig Wissen aneignen und dieses Wissen verallgemeinern können. Es werden keine Daten auswendig gelernt, sondern Muster und Gesetzmäßigkeiten in Datenmengen erkannt und diese Erkenntnisse dann auf andere, neue Daten angewendet. Das Anwendungsspektrum von „Machine Learning“ ist sehr breit. Es umfasst Spam-Filter, Sprach- und Texterkennung, Suchfunktionen, automatische Empfehlungsdienste sowie Bild- und Gesichtserkennung. Im „Machine Learning Studio“ des neuen Ars Electronica Center können Besucherinnen und Besucher einige dieser Anwendungen selbst ausprobieren und ihre Funktionsweisen kennenlernen.
Unterstützt von den sogenannten Techtrainerinnen und Techtrainer kann jede und jeder an selbstfahrenden Autos schrauben und sich damit auf eine Teststrecke wagen. „Donkey Cars“ geben dabei den fahrbaren Untersatz, der mit einer Kamera und einem Raspberry PI versehen wird. Dank „Machine Learning“ und dem entsprechenden Training wird ein solches Auto schon bald zum selbstfahrenden Auto, das die Teststrecke besser und besser in den Griff bekommt.
Gleich daneben befindet sich die „Dobot Assembly Line“, an der sich alles um Automatisierung und Robotik dreht. Besucherinnen und Besucher können hier einen DOBOT Magician programmieren und steuern. Der vielseitig einsetzbare Education Roboterarm kann alle möglichen Dinge aufheben und platzieren, mit einem Stift zeichnen, 3D-drucken oder mit einem Laser gravieren.
Darüber hinaus reparieren und warten die Techtrainerinnen und Techtrainer im „Machine Learning Studio“ Prototypen und Installationen aus allen Ausstellungsbereichen des neuen Ars Electronica Center – nicht wie üblich in Werkstätten, die nur für Mitarbeiterinnen und Mitarbeiter zugänglich sind, sondern vor und gemeinsam mit den Besucherinnen und Besuchern.
AI und Kreativität
Ob todtraurig oder himmelhoch jauchzend, anmutig oder unbeholfen – wir Menschen können einer schlichten Holzfigur unglaubliche Magie und einmaligen Ausdruck verleihen. Doch können das auch Maschinen? Was, wenn zur Abwechslung moderne Industrieroboter die Strippen ziehen und einer Marionette Leben einhauchen? Und noch einen Schritt weiter gedacht: Was, wenn selbst die Choreografie dabei von einem intelligenten System entwickelt wird? Wer ist dann die Künstlerin oder der Künstler? Die Maschine oder die Programmiererinnen und Programmierer? Und wer hält die Urheberrechte an ihren Werken?
Mit „Pinocchio“ zeigt das Ars Electronica Futurelab, dass AI-Anwendungen heute nicht mehr nur Produktionsanlagen optimieren oder Autos steuern. Sie drängen zunehmend auf ein Feld, das bislang uns Menschen vorbehalten war: die Kunst.
Ausgehend von unseren Erfahrungen, konstruiert unser Gehirn ein ganz bestimmtes Bild der Wirklichkeit. Wir sehen die Welt nicht wie sie ist, sondern wie wir es wollen. Oder müssen. Ganz genau wie das „ShadowGAN“ des Ars Electronica Futurelab. Das „Conditional Generative Adversarial Network“ – kurz cGAN – wurde darauf trainiert, in allem und jedem Gebirgslandschaften zu erkennen. Egal welchen Input das neuronale Netz erhält, der Output mutet stets wie Wälder, Felsen und schneebedeckte Gipfel an. Doch ist dies ein kreativer Akt oder bloß eine zwangläufige Interpretation?
AI und Vorurteile
Stichwort Interpretation: Können AI-Systeme auch objektiv sein? Können sie frei von jeglichen Vorurteilen sein und faire Entscheidungen treffen?
„Machine Learning“ vollbringt heute beeindruckende Leistungen. Unfehlbar ist es aber nicht. Die Fehlerquote dieser Systeme hängt maßgeblich von der Quantität und Qualität jener Daten ab, mit denen sie trainiert werden. Und diese Datensätze stellen wir Menschen zusammen. Passieren uns dabei Fehler, wird auch das jeweilige neuronale Netz fehlerhaft arbeiten. „imageNet fails“ zeigt, dass ein solcher Fehler auch bloß darin bestehen kann, dass Daten Merkmale enthalten, die uns Menschen gar nicht auffallen, einem AI-System aber sehr wohl. Schlimmer ist ohne Zweifel, wenn Datensätze unsere Vorurteile widerspiegeln – in dem Fall wird nämlich auch ein künstliches neuronales Netz zu diskriminierenden Ergebnissen kommen.
Wenn AI-Systeme unsere Vorurteile „übernehmen“ können, bedeutet das aber gleichzeitig, dass wir ihnen auch unsere Wertvorstellungen antrainieren können. Viele Online-Foren haben heute mit „Trollen“ zu kämpfen. Das Auffinden und Löschen ihrer diskriminierenden Einträge muss rund um die Uhr passieren und erfordert großen Aufwand. Künftig könnten neuronale Netze dies übernehmen. Gemeinsam mit österreichischen Medien hat das Ars Electronica Futurelab eine interaktive Station entwickelt, an der Besucherinnen und Besucher anonymisierte Kommentare aus Online-Foren klassifizieren können. Die „Troll Detection AI“ lernt dabei, welche Inhalte gegen unsere Gesetze und Ethik verstoßen und welche nicht. Nach entsprechendem Training kann das System schließlich bei österreichischen Online-Medien zum Einsatz kommen.
Wie komplex und tiefgehend ethische Fragestellungen rund um AI-Systeme sind, zeigt das Projekt „Anatomy of an AI“ (Vladan Joler (RS), Kate Crawford (AU)) am Beispiel des Echo Dot (Amazon). Ein riesiger Print skizziert den vielschichtigen Prozess, der Entwicklung, Herstellung, Vertrieb, Kauf, Nutzung und Entsorgung dieses digitalen Assistenten umfasst und dabei globale Kreise zieht, die weit in die Bereiche Arbeit, Kapital, Politik und Natur hineinreichen.
Global Shift – Leben im Anthropozän
Wenn es die Erde seit 24 Stunden gäbe, wäre Homo Sapiens vor gerade einmal 3,6 Sekunden aufgetaucht. Seit 0,2 Sekunden würden wir Ackerbau und Viehzucht betreiben, das Industriezeitalter hätte vor 0,002 Sekunden begonnen. Zweitausendstel Sekunden, die uns gereicht haben, zum bestimmenden Faktor der biologischen, geologischen und atmosphärischen Veränderungen auf diesem Planeten zu werden. Als das Zeitalter des Menschen, das „Anthropozän“, wird dieses jüngste Kapitel der Erdgeschichte deshalb bezeichnet. Unter dem Motto „Global Shift“ wirft das neue Ars Electronica Center einen Blick auf unsere aktuelle Lebensrealität.
Ziemlich genau 50 Jahre, nachdem Forscherinnen und Forscher in den USA das allererste Computer-Netzwerk – das „Advanced Research Projects Agency Network“ – schufen, sind wir alle digitale Bürgerinnen und Bürger. Jede und jeder von uns verbringt sehr viel Zeit in digitalen Räumen, in denen wir arbeiten, einkaufen, uns über die Welt informieren und miteinander austauschen. Weil wir die Gestaltung dieser digitalen Räume und Infrastrukturen bislang fast ausschließlich Technologiekonzernen überlassen haben, sind wir ziemlich im Verzug, was Spielregeln und Verantwortlichkeiten angeht. Eine Folge davon ist, dass wir Services im Netz nur dann nutzen können, wenn wir vorher der Übermittlung all unserer Daten zustimmen.
Ein Beispiel: Cloud-Dienste. Zu den größten Anbietern zählen Microsoft, Google und Amazon, auf deren Servern tausende Websites und Apps gespeichert sind. Werden sie aufgerufen, fragen sie unsere Daten ab und speichern sie in der Cloud. Im W-LAN des neuen Ars Electronica Center werden sämtliche Server von Amazon Web Services (AWS) blockiert. Indem Besucherinnen und Besucher – vergeblich – versuchen, Apps auf ihrem Smartphone zu nutzen, wird deutlich, wie viele davon auf AWS basieren und welche Dominanz heute einige wenige Technologieriesen innehaben.
“Your Apps Know Where You Were Last Night, and They’re Not Keeping It Secret” lautet nicht zufällig auch das Ergebnis eines Projektes der New York Times. Am Beispiel einer Mittelschullehrerin zeigte die NYT, wie leicht Daten trotz ihrer Anonymisierung konkreten Personen zugeordnet werden können. Das dafür benötigte Datenmaterial wurde völlig legal von einem Datenmakler gekauft.
Aber auch abseits der rein digitalen Welt beeinflusst Technologie unser Leben maßgeblich. Technologie ist hauptverantwortlich dafür, dass wir heute besser, gesünder und länger leben als jede Generation vor uns und dass wir immer besser Bescheid wissen über uns selbst, unseren Planeten – und darüber hinaus.
Unser letzter permanent besetzter Außenposten kreist aktuell in rund 400 Kilometer Höhe um die Erde, unsere Roboter kurven auf dem Mars und unsere Sonden dringen in den interstellaren Raum vor. Aber auch mehr als 6000 Tonnen Schrott und Müll kreisen um unseren Planeten. Und sorgen zunehmend für Probleme. Denn knapp die Hälfte dieses Schrotts befindet sich im erdnahen Orbit, also dort, wo auch unsere Satelliten unterwegs sind. Mit „Orbits“ (Quadrature) zeigt das neue Ars Electronica Center ein künstlerisches Projekt, das die Flugbahnen von 17.000 Objekten zu ästhetischen Mustern formt.
Stichwort Erdbeobachtung: Mittels Satelliten können wir uns rund um die Uhr ein Bild davon machen, was auf der Erdoberfläche, in den Meeren und in der Atmosphäre abläuft. Um die dabei gewonnenen Daten auszuwerten, kommen wiederum AI-Systeme zum Einsatz. Sie durchforsten riesige Datenmengen nach Mustern, die uns Menschen verborgen bleiben würden. Die dadurch gewonnenen Erkenntnisse zeigen immer deutlicher, dass der technologische Fortschritt und das permanente Wachstum unserer Wirtschaft ihren Preis haben.
Ein Beispiel: der weltweite Warenverkehr. Mehr als 90 Prozent davon erfolgt mit Schiffen, den größten beweglichen Bauwerken der Menschheit. Jede dritte Fahrt hat einen Hafen der EU zum Ziel oder als Ausgangspunkt. Auf einer interaktiven Karte zeigt das neue Ars Electronica Center die Dimension des globalen Seehandels. Tendenz: steigend. Denn der Klimawandel, den nicht zuletzt die mit Schweröl betriebenen Ozeanriesen befeuern, lässt die Polkappen schmelzen und schon bald eine ganzjährig befahrbare Arktisroute entstehen. Viele Transporte werden damit kürzer, Produkte günstiger, die Gewinne von Reedereien und Unternehmen noch höher.
Doch nicht nur das vermeintlich ewige Eis der Polkappen schmilzt, auch die Gletscher verschwinden. Zu sehen in den Hohen Tauern, im größten und ältesten Nationalpark des Wintersportlandes Österreich. 1856 bedeckte die Pasterze am Fuße des Großglockners eine Fläche von mehr als 30 km², um das Jahr 2050 wird sie fast völlig verschwunden sein. Mit „Global Retreat“ zeigt das neue Ars Electronica Center eine interaktive Projektion auf einem Höhenschichtmodell der Hohen Tauern und führt Geschwindigkeit und Endgültigkeit der Gletscherschmelze vor Augen.
Verursacht werden die stetig steigenden weltweiten Durchschnittstemperaturen von der immer höheren CO2-Konzentration in unserer Atomsphäre, die alle Werte der vergangenen 800.000 Jahre toppt. Mit ihren „Climate Spirals“ veranschaulichen Forscherinnen und Forscher der Universität von Melbourne, wie rasant sich diese Wechselwirkung vollzieht.
Mit „Global Shift“ zeigt das neue Ars Electronica Center, wie stark wir unsere Welt nach unseren Wünschen gestalten, aber auch welche Probleme dadurch entstehen. Es liegt an uns zu bestimmen, welche Richtung wir künftig einschlagen wollen, wie wir Wirtschaftswachstum bewerten, welche Bedeutung wir der irdischen Biodiversität beimessen und welche Rolle wir unserer Technologie zuschreiben.
http://www.flickr.com/photos/arselectronica/47936983177/
Machine Learning Studio / Fotocredit: vog.photo / Printversion
http://www.flickr.com/photos/arselectronica/47937003171/
pinocchio / Fotocredit: vog.photo / Printversion
http://www.flickr.com/photos/arselectronica/47937003076/
Remains / Quayola // Fotocredit: vog.photo / Printversion