human – Artificial Intelligence https://ars.electronica.art/ai/de Ars Electronica Festival 2017 Tue, 28 Jun 2022 13:43:24 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.6 Until I Die https://ars.electronica.art/ai/de/until-i-die/ Tue, 08 Aug 2017 18:51:32 +0000 https://ars.electronica.art/ai/?p=2654

::vtol:: (RU)

Das großangelegte Projekt Until I die ist eine hybride Installation, die mit dem Blut des Künstlers arbeitet. Das Blut wurde über einen langen Zeitraum hinweg abgenommen und gesammelt. Das Blut generiert Strom für einen kleinen Klang-Synthesizer.

Es ist eine der wichtigsten und komplexesten Arbeiten, die ::vtol:: in den letzten Jahren geschaffen hat, und berührt eine Vielzahl von Themen, die mit Hybrid Art zu tun haben: alternative Energiequellen, die Verschmelzung von menschlichem Körper und Maschine, der Körper als Ressource. Dieses Projekt ist ein Versuch, einen techno-biologischen Klon des Künstlers zu schaffen, indem er mithilfe seiner eigenen Lebensenergie elektronische Musik komponiert.

]]>
Natural History of the Enigma https://ars.electronica.art/ai/de/enigma/ Tue, 08 Aug 2017 14:07:15 +0000 https://ars.electronica.art/ai/?p=3663

Eduardo Kac (US)

Die zentrale Arbeit der Serie Natural History of the Enigma ist ein „Plantimal”. Eduardo Kac kreierte eine neue Lebensform und gab ihr den Namen „Edunia” – eine gentechnisch veränderte Blume, die ein Hybrid aus dem Künstler und einer Petunie ist.

Die DNA des Künstlers äußert sich ausschließlich in den roten Venen der „Edunia”. Das von Kac ausgewählte Gen ist für die Identifizierung von Fremdkörpern verantwortlich.

Der Künstler integriert somit etwas Fremdes, etwas Anderes in die Blume, das genau wiederum dieses Andere als fremd identifiziert und ablehnt. Dadurch wird ein neues Selbst geschaffen, das teils Blume und teils Mensch ist.

Credits

]]>
Recomposition of Human Presence: Waves, Material, and Intelligence https://ars.electronica.art/ai/de/recomposition-of-human-presence/ Tue, 08 Aug 2017 12:24:49 +0000 https://ars.electronica.art/ai/?p=3638

From Human Society towards Digital Nature and Computational Incubated Diversity

Digital Nature Group at the University of Tsukuba, Pixie Dust Technologies Inc. (JP)

Wie können wir unsere menschliche Präsenz neu definieren? Die Digital Nature Group erforscht mittels computergestützten Umgebungen die Beziehungen zwischen Wellen, Material und Intelligenz, um Feedbackschleife zwischen menschlicher Intelligenz und Maschinenintelligenz herzustellen. Vom Standpunkt der Computerwissenschaften aus entwerfen sie prototypische Systeme und kombinieren Wave-Engineering, organische und Meta-Materialien durch digitale Fabrikation und Deep Learning, in der Hoffnung, neue Ökosysteme für das digitale Zeitalter zu entdecken.

Die Digital Nature Group besteht aus über 40 Personen – Studierende, ForscherInnen und der ProfessorInenn –, die sich alle mit Wave-Engineering, Maschinelles Lernen und Materialforschung beschäftigen. Sie unterstützen die Forschung und Entwicklung nicht nur im akademischen Bereich, sondern vor allem auch für den praktischen Einsatz in der Gesellschaft.

Wie in ihren Prototypenserien entwickelt sie mittels Deep Learning Software für alternative Bekleidungsdesigns, die von berühmten Designern und Designerinnen inspiriert sind. So stellen sie eine Verbindung zwischen menschlichen Designern und Designerinnen und maschineller Intelligenz her. Desweiteren entwickeln die Mitglieder automatisierte Rollstühle und prothetische Hilfen und verbinden dank der Spatial-Recognition-Fähigkeiten maschineller Intelligenz Licht, Klang und menschliche Körper. Alle Projekte basieren auf dem Zusammenspiel von digitaler Fabrikation, Wave-Engineering und maschinellem Lernen.

Diese Prototypen weisen in eine Richtung, die sich wesentlich von modernen standardisierten gesellschaftlichen Formaten, von moderner Massenproduktion oder -kommunikation unterscheidet. Sie sehen die Welt als eine rechnerisch inkubierte Vielfalt, in der Körper, Produktionsprozesse und audiovisuelle Kommunikation mittels holografischem Wave-Engineering in der individuellen Kommunikation sowie mittels Maschinenintelligenz erweitert werden. Dabei versuchen sie mit diesen aufkommenden Technologien ein Ökosystem für das digitale Zeitalter zu entwerfen. Diese Überlegungen schwingen stets mit, wenn Kunst, Wissenschaft und Technologie kombiniert werden, um mittels Technologie reale gesellschaftliche Probleme zu lösen. Das Meme „Technium“, das hier ins Spiel kommt, scheint japanisch geprägt zu sein und hat folglich auch seine eigene kulturelle Perspektive.

Credits

Yoichi Ochiai, Atsushi Shinoda, Akira Ishii, Keisuke Kawahara, Amy Koike, Junjian Zhang, Kazuki Takazawa, Kensuke Abe, Kotaro Omomo, Natsumi Kato, Ryota Kawamura, Satoshi Hashizume, Ooi Chun Wei, Yaohao Chen, Hiroki Hasada, Keita Kanai, Mose Sakashita, Naoya Muramatsu, Shingo Uzawa, Yuki Koyama, Yuta Sato, Chihiro Murakami, Ippei Suzuki, Kenta Yamamoto, Shinji Sakamoto, Ayaka Ebisu, Daitetsu Sato, Hiroyuki Osone, Kubokawa Kazuyoshi, Riku Iwasaki, Tatsuya Minagawa, Taisuke Ohshima, Akira Hashimoto, Wataru Kaji, Yuta Ito, Kazuki Otao, Kengo Tanaka, Kohei Ogawa, Kent Kishima, Shinnosuke Ando, Shouki Imai, Yusuke Tanemura

All projects are supervised by Prof. Yoichi Ochiai.

Supported by: Digital Nature Group, University of Tsukuba, Pixie Dust Technologies Inc.

DeepWear

Natsumi Kato (JP), Hiroyuki Osone (JP)

Diese Bilder wurden mittels DCGAN erstellt, einer Deep-Learning-Technologie für Bildgenerierung, die lernt, welche Merkmale Kleidungsstücke des spezifische designer, um daraus entsprechende Bilder zu generieren.

Coded Skeleton

Taisuke Ohshima (JP), Miyu Iwafune (JP)

Coded Skeleton ist ein Material, das dank simpler Linearaktoren vorprogrammierte Bewegungen ausführen kann. Diese Materialeigenschaft beruht auf einer 3D-druckbaren geometrischen Struktur. Die Bewegung wird von der Originalsoftware vorgegeben, die eine 3D-druckbare Struktur generiert, die flexibel ist, solange es sich um die designte Bewegung handelt, bei anderen Deformierungen aber steif bleibt. Diese Eigenschaft kann als „isolierte Flexibilität“ beschrieben werden. Dank der Linearaktoren ergibt sich eine genau steuerbare, elastische Bewegung. Das Designsystem ermöglicht es, die Bewegung des Coded Skeleton zu bestimmen.

Stimulated Percussions

Ayaka Ebisu (JP), Yuta Sato (JP)

Elektrische Stimulierung verwandelt Muskeln in Maschinen. Der vom Programm gesteuerte Körper produziert Rhythmen. Dies ist eine neue Methode für Musikperformances, die zum Ziel hat AnfängerInnen das Schlagen von Rhythmen beizubringen. Diese können leicht verschiedene Rhythmen mit der rechten und der linken Hand gleichzeitig spielen.

Live Jacket

Yoichi Ochiai (JP), HAKUHODO Inc. (JP), Go inc. (JP), Kenta Suzuki (JP), Shinji Sakamoto (JP)

Bei unserer Live Jacket-Demonstration können BesucherInnen eine Jacke mit eingebauten Lautsprechern tragen und so Musik mit dem ganzen Körper hören. Insgesamt sind 22 Lautsprecher in die Jacke eingebaut, sodass die BesucherInnen eine Rundum-Musikerfahrung machen. Außerdem verändert sich der Sound abhängig von den Bewegungen der die Jacke tragenden Person.

Immersive Light Field

Kazuki Otao (JP)

Dieses System für ein Head-Mounted Display (HMD) projiziert Bilder direkt in die menschliche Pupille, sodass man die Umgebung durch ein HMD wahrnehmen kann. Das System weist einen völlig neuartigen Weitwinkel auf und zeigt, welche Möglichkeiten sich dank Metamaterialien auftun, die in der Natur nicht existierende Eigenschaften haben.

Printed Absorbent

Kohei Ogawa (JP), Hiroki Hasada (JP), Kensuke Abe (JP), Kenta Yamamoto (JP)

Diese Arbeit zeigt Strukturen, die aufgrund des Kapillaritäteffekts Pflanzenwachstum ermöglichen.

Telewheelchair

Satoshi Hashizume (JP), Kazuki Takazawa (JP), Ippei Suzuki (JP)

Dieses Telepresence-System bietet Fernwartung durch die Integration von Funktionen wie die der Objekterkennung auf einem Rollstuhl.

]]>
Hybrid Art – cellF https://ars.electronica.art/ai/de/hybrid-art-cellf/ Tue, 08 Aug 2017 10:46:34 +0000 https://ars.electronica.art/ai/?p=3250

Guy Ben-Ary (AU), Bakkum Douglas (US), Mike Edel (AU), Andrew Fitch (AU), Stuart Hodgetts (AU), Darren Moore (AU), Nathan Thompson (AU)

Es gibt eine überraschende Ähnlichkeit in der Art, wie neuronale Netze und analoge Synthesizer arbeiten: In beiden werden Signale empfangen und durch Komponenten bearbeitet, um Daten oder Ton zu erzeugen.

cellF verbindet diese beiden Systeme: Das „Gehirn“ dieser neuen Schöpfung besteht aus einem biologischen neuronalen Netzwerk, das in einer Kulturschale wächst und in Echtzeit analoge modulare Synthesizer kontrolliert. Der lebende Teil dieses völlig autonomen und analogen Instruments sind Nervenzellen. Diese wurden aus Guy Ben-Arys Fibroblasten (Zellen im Bindegewebe) gewonnen, die zunächst in Stammzellen zurückprogrammiert wurden.

Diese Stammzellen werden künstlich von Guy Ben-Ary in neuronale Stammzellen weiter entwickelt, die sich wiederum unter bestimmten Bedingungen im Labor in Nervenzellen differenzieren und ein neuronales Netzwerk bilden – Ben-Arys „externes Gehirn“. Die Aktivität dieses Gehirns kann durch den Input anderer, menschlicher MusikerInnen beeinflusst und über die analogen Synthesizer hörbar gemacht werden. Mensch und Instrument werden zu einer Einheit – zu einem „kybernetischen Rockstar“ aus der Petrischale.

Das Projekt wird während dem Ars Electronica Festival in der POSTCITY präsentiert.

]]>
Hello Machine—Hello Human https://ars.electronica.art/ai/de/hello-machine-hello-human/ Tue, 08 Aug 2017 03:30:27 +0000 https://ars.electronica.art/ai/?p=1932

Rachel Hanlon (AU)

Hello …? Can you talk to me …? Wenn Technologien obsolet werden, verändert sich auch unsere Beziehungen zu ihnen. Was sich aber nie ändert, ist unser Bedürfnis, in Kontakt mit Anderen zu sein und unser Leben zu teilen. Aber was, wenn niemand am anderen Ende der Leitung ist? Wer hört uns dann zu?

Künstliche Intelligenz sorgt jetzt dafür, dass immer jemand da ist! Damit hat eine Art Sprach-Rennen begonnen: Zunächst gab es interaktive Anrufbeantworter und nun Interfaces, die natürliche Sprache verwenden – sie sind unsere neuen „Sprach-Webstühle“. Heutzutage verändert die „Stimmen mit einem Lächeln“ die Art und Weise, wie wir mit unseren Telefonen interagieren. Siri, Alexa, Bibxy, Cortana und Google Assistant (sollen wir sie GAbby nennen?) – sie alle buhlen um unsere Aufmerksamkeit, aber wie werden die Beziehungen zu diesen Mädchen/Jungen-für-alles wohl enden? Hello Machine – Hello Human zeigt die spielerischen Momente in der Interaktion zwischen Mensch und Maschine und versucht in Kontakt zu treten, indem sie diese Beziehung auf den Kopf stellt: Was können Menschen für die Maschine tun?

Hello Machines sind über die ganze Welt verstreut, an ständig wechselnden Orten und Zeitzonen. Wenn man den Hörer abnimmt, dann klingelt es bei den anderen Hello Machines, sodass spontane Stimm-Besuche möglich werden. Sie bieten die Gelegenheit, mit den reanimierten, technisch obsoleten Telefonsystemen zu interagieren, dabei aber die aktuellen Fortschritte in der Telefonie zu nutzen. Diese Maschinen wollen einen Dialog herstellen zwischen den ursprünglichen Ideen hinter den Technologien und dem, was die „Dingheit“ dieser Geräte ausmacht, indem sie den historischen und gesellschaftlichen Inhalt aufdecken, der Spuren unserer Identität enthält.

Credits

This project has been assisted by the Australian Government through the Australia Council, its arts funding and advisory body.

Hello Machine—Hello Human wurde im Kontext des Ars Electronica Futurelab entwickelt und ist Teil von Rachel Hanlon’s PhD Research an der Deakin University, Australia.

]]>
iOTA https://ars.electronica.art/ai/de/iota/ Sun, 06 Aug 2017 08:55:15 +0000 https://ars.electronica.art/ai/?p=2125

OUCHHH X AUDIOFIL feat. MASOM (TR/CA)

Können Maschinen den Menschen komplett ersetzen? Oder bedarf es lediglich der richtigen Kombination aus menschlicher und künstlicher Intelligenz – einer hybriden Intelligenz?

Diese Echtzeit-Performance verwandelt die Bühne in einen Kampf zwischen Mensch und Maschine. Die aktuelle Version von iOTA ist fähig, maschinell zu lernen. So wird das Publikum Zeuge eines einzigartigen AV-Performance-Kampfes zwischen realen KünstlerInnen und künstlicher Intelligenz, die auf der Bühne wie ein Künstler agiert. In der Mathematik bezeichnet iOTA (i) eine imaginäre Einheit oder Zahl, die dazu genutzt werden kann, einen Raum in einen weiteren Raum zu inkludieren. Licht ist das einzige Element, das vom Auge wahrgenommen werden kann. iOTA ist eine LED-Installation, inspiriert von der Physik des Lichtes und der Forschung nach den Ursprüngen der Geometrie. Abhängig vom jeweiligen Fokus der BetrachterInnen, kann die Natur des Lichtes und seine verschiedenen Phänomene wahrgenommen werden – und zwar über das Wahrnehmungsvermögen des menschlichen Geistes hinaus. Dies stellt den Versuch dar, sie in eine einheitliche, nicht-räumliche Form umzuwandeln.

iOTA wurde im Zorlu Performing Arts Center auf einem LED-Screen mit einer Fläche von 126 m² realisiert. Die Installation war Teil des Sonar +D Showcase am Sonar Istanbul Festival 2017.

Credits

Producer: Ouchhh Studio
New media artists and directors: Ferdi Alıcı, Eylul Duranagac (OUCHHH)
Creative coder and AI artists: Kıvanç Tatar and Philippe Pasquier (MASOM)
Sound design and music: Mehmet Ünal from AudioFIL

]]>