robot – Artificial Intelligence https://ars.electronica.art/ai/de Ars Electronica Festival 2017 Tue, 28 Jun 2022 13:43:24 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.6 F.o.G.—Face on Globe https://ars.electronica.art/ai/de/face-on-globe/ Fri, 18 Aug 2017 12:21:25 +0000 https://ars.electronica.art/ai/?p=1731

Daisuke Iizawa (JP), Shunji Yamanaka (JP), Prototyping & Design Laboratory, University of Tokyo (JP)

F.o.G.—Face on Globe untersucht die Interaktionen zwischen Menschen und künstlichen Artefakten. Die meisten interaktiven Roboter sind so konzipiert, dass sie menschlich aussehen, um ihre Interaktionen natürlicher wirken zu lassen. Wenn jedoch die Qualität der Unterhaltung und die Erwartungen an das Erscheinungsbild des Roboters nicht übereinstimmen, wird tatsächlich der umgekehrte Effekt eintreten.

Das psychologisches Phänomen namens Pareidolia beschreibt die Neigung von Menschen Gesichter in unbelebten Objekten zu erkennen. Um dem entgegenzuwirken, wurde die Hypothese aufgestellt, dass eine Kugel jene Form ist, die dem Menschen am wenigsten ähnelt. Mithilfe des Prototypen möchten die Künstler herausfinden, wie sie Design derart einsetzen können, dass ein Gleichgewicht zwischen Aussehen und Verhalten eines Roboters und den Erwartungen der NutzerInnen entstehen kann. Der Roboter ist kugelförmig, kann seine Form aber verwandeln, um einen mehr oder weniger menschlichen Eindruck zu erzeugen. Durch das Manipulieren seiner Form können die Künstler untersuchen, wie sich das soziale Verhalten von Menschen gegenüber verschiedenen Erscheinungsbildern des Roboters ändert.

Credits

Supported by Japan Shunji Yamanaka Laboratory, University of Tokyo, Japan, and Mitsubishi Electric Corporation

]]>
Deltu https://ars.electronica.art/ai/de/deltu/ Fri, 18 Aug 2017 07:48:57 +0000 https://ars.electronica.art/ai/?p=1718

Alexia Lechot (CH)

Deltu ist ein Delta-Roboter mit einer starken Persönlichkeit. Mithilfe von zwei iPads interagiert er mit Menschen. Er spielt mit den BesucherInnen – abhängig von seiner Stimmung.

Wenn jemand zu viele Fehler macht, ist Deltu verärgert und entscheidet sich dazu, diese Person zu ignorieren. Er wird frustriert das Spiel verlassen, ein paar Selfies machen und auf Instagram posten.

Credits

Supported by ECAL, École cantonale d’art de Lausanne

]]>
The Wandering Artist https://ars.electronica.art/ai/de/wandering-artist/ Wed, 16 Aug 2017 15:14:11 +0000 https://ars.electronica.art/ai/?p=1420

Sarah Petkus (US)

The Wandering Artist ist eine Auseinandersetzung mit der Rolle, die Kreativität und menschliche Ausdrucksfähigkeit im Kontext der Weltraumerkundung spielen.

Dazu forschte die Künstlerin bei der Europäischen Weltraumagentur. Dort stattete sie eine robotische Einheit, genannt NoodleFeet so aus, dass sie mit ihrer Umgebung auf persönliche, ausdrucksstarke Weise interagierte. Ziel des Projekts war es, WissenschaftlerInnen und IngenieurInnen zu Reflexionen über Zweck und Identität von Weltraumtechnologien zu motivieren.

NoodleFeet ist die funktionierende robotische Manifestation einer illustrierten Figur, die aus Leichtmetall, 3D-gedruckten Teilen und gefundenen Objekten besteht. Noodle besteht aus mechanischen und elektronischen Systemen, die es ihm erlauben, Verhaltensweise auszuführen wenn er von Objekten in seiner Umgebung dazu stimuliert wird. Seine Bestimmung besteht darin, frei in der Welt zu existieren und auf Begegnungen zu reagieren, indem er selbstdefinierende Methoden des persönlichen Ausdrucks nutzt. Während Technologie meist einen praktischen oder utilitaristischen Ansatz verfolgt und uns Menschen unterstützen soll, bildet Noodle eine einzigartige Entität, die ganz für sich selbst funktioniert. Dabei spielt es keine Rolle, ob der Mensch ihm einen Zweck oder Nutzen zuspricht oder nicht. Die Künstlerin will damit unsere Motivationen hinter aktuellen Innovationen in Frage stellen und hofft, dass jene, die mit Noodle interagieren, bei ihm ein sinnstiftendes Gefühl für ein Selbst erkennen und dadurch überdenken, welchen Wert sie ihrer Beziehung zu Alltagstechnologien beimessen.

Credits

This project is presented in the framework of the European Digital Art and Science Network and co-funded by the Creative Europe program of the European Union.

]]>
BR41N.IO Hackathon https://ars.electronica.art/ai/de/br41n-io/ Wed, 16 Aug 2017 14:13:22 +0000 https://ars.electronica.art/ai/?p=1395

Der Brain-Computer Interface Designers Hackathon

g.tec medical engineering GmbH (AT)

BR41N.IO Hackathon bringt IngenieurInnen, ProgrammiererInnen, Ärzte und ÄrztInnen, DesignerInnen, KünstlerInnen und Modefreaks in einem interdisziplinären Team zusammen. Sie planen und produzieren ihr eigenes funktionsfähiges Headset für ein EEG-basiertes Brain-Computer-Interface, mit dem sie eine Drohne, einen Sphero- oder e-puck-Roboter oder eine Orthese mittels Bewegungsvorstellung steuern.

FR 8.9.2017

10:00  – 10:30 Begrüßung der BR41N.IO HackerInnen
10:30 – 11:00 Intro: Current and Future Applications of Brain-Computer Interface
11:00 – 11:30 Intro: Agent Unicorn – A Fashionable BrainTech, Anouk Wipprecht (NL)
11:30 – 12:00 Intro: Steps to run a BCI, Christoph Guger (AT)
12:00 – 12:30 Hackathon Gruppen und Mentoring
13:00 START HACKING

SA 9.9.2017

11:00 Ende 24-h-Hacking
11:00 – 14:00 Hackathon-Projekt-Präsentationen
14:00 – 14:30
Bewertung der Projekte durch die Hackathon-Jury
15:00 – 16:00
BR41N.IO Hackathon Ceremony
mit Auszeichnung der besten Projekte durch Christoph Guger & Landeshauptmann-Stv. Michael Strugl

Sobald sie an eine Bewegung mit dem rechten Arm denken, führt das Gerät eine vordefinierte Aktion durch. Die ProgrammiererInnen erstellen ein Interface, mit dem man mit reiner Gedankenkraft Roboter und andere Maschinen ansteuern kann. Die KünstlerInnen unter den HackerInnen schaffen künstlerische Gemälde oder posten und tweeten ein Status-Update. Und HackerInnen, die gerne schneidern oder 3D-printen, verleihen ihrem BCI-Headset einen künstlerischen, einzigartigen Touch. Kinder realisieren ihre eigene Versionen von interaktiven Headset-Accessoires, die von Tieren, mythischen Figuren oder ihren Fantasien inspiriert sind.

Inspiriert von dem einzigartigen Headset Agent Unicorn der Fashion-Tech-Designerin Anouk Wipprecht, ist BR41N.IO Brain-Computer Interface Designers Hackathon eine Aufforderung an junge Geeks, ein originelles, spielerisches Wearable-Headset für ein Brain-Computer-Interface (BCI) zu entwerfen. Das BCI misst die Gehirnaktivität, sodass UserInnen nur mithilfe ihrer Gedanken einen Roboter oder ein intelligentes Gerät steuern können, um mit ihm zu kommunizieren oder zu malen.

Vor zwanzig Jahren konnten Brain-Computer-Interfaces nur Mauszeiger bewegen. Heute arbeiten BCIs mit maschinellem Lernen und kommen in den verschiedensten Bereichen der Neurowissenschaften zum Einsatz, zum Beispiel bei der motorischen Rehabilitation von SchlaganfallpatientInnen, beim Assessment von beziehungsweise der Kommunikation mit Koma-PatientInnen, bei der Kontrolle von Geräten für behinderte Menschen, beim kognitiven Training oder Neuromarketing. BR41N.IO zeigt die aktuellen und zukünftigen Entwicklungen und die unendlichen Möglichkeiten von Brain-Computer-Interfaces bei kreativen oder wissenschaftlichen Anwendungen. Es demonstriert auch, wie künstliche Intelligenz, Lebenswissenschaften, Kunst und Technologie zusammenarbeiten, um innovative und außergewöhnliche BCI-Headsets zu entwickeln.

Credits

BR41N.IO is organized by g.tec medical engineering GmbH | Schiedlberg | Austria

]]>
A3 K3 https://ars.electronica.art/ai/de/a3k3/ Wed, 16 Aug 2017 13:53:32 +0000 https://ars.electronica.art/ai/?p=1386

Intermedia/trans-technological performance/installation

Dragan Ilić (RS/AU/US)

A3 K3 bietet eine einzigartige interaktive Erfahrung: Kunstwerke werden mittels Maschinentechnologie und Publikumsbeteiligung geschaffen. Dragan Ilić nutzt dazu ein komplexes System aus Brain-Computer-Interfaces (BCI), indem er einen Hightech-Roboter via State-of-the-Art-Technologie mit seinem Gehirn kontrolliert.

ZuschauerInnen können die BCI-Technologie ausprobieren. Unterstützt vom Roboter zeichnen und malen der Künstler und das Publikum auf einer vertikalen und einer horizontalen Leinwand. Der Roboterarm ist mit DI (Dragan Ilić)-Zeichengeräten bestückt, die verschiedene künstlerische Medien halten und manipulieren und attraktive, großformatige Kunstwerke erschaffen. Dragan Ilić liefert damit einen Kontext, in dem Menschen ihre künstlerischen Fähigkeiten weiterentwickeln und augmentieren können. Dank der Unterstützung durch g.tec wird Ilić auch weiterhin zur Interaktion zwischen AI-Systemen und Mensch im kreativen Prozess forschen.

Credits

This program is supported by g.tec and GV Art London.

]]>
Mimus: Coming face-to-face with our companion species https://ars.electronica.art/ai/de/mimus-companion-species/ Tue, 15 Aug 2017 16:58:09 +0000 https://ars.electronica.art/ai/?p=1288

Madeline Gannon (US)

Mimus ist ein gigantischer Industrieroboter, der große Neugierde an seiner Umgebung und der Welt und hat. Im Unterschied zu herkömmlichen Industrierobotern, die vorprogrammierte Bewegungen ausführen, verfügt Mimus über die Autonomie, frei umherzustreifen. An der Decke installierte Sensoren fungieren als Augen, die jede Bewegung der BetrachterInnen in ihrem Umfeld erfassen. Erweckt jemand das Interesse von Mimus, nähert sie sich der Person, um sie genauer in Augenschein zu nehmen und ihr zu folgen. Geduld ist nicht gerade ihre Stärke – bleibt die Person zu lange stehen, langweilt sie sich und sieht sich nach jemand anderem um.

Unsere interaktive Installation thematisiert die weit verbreitete gesellschaftliche Angst, dass Roboter Menschen die Arbeit wegnehmen werden. Beim Weltwirtschaftsforum wurde prognostiziert, dass Roboter in den kommenden fünf Jahren fünf Millionen Jobs übernehmen werden. Wir haben optimistischere Zukunftsvorstellungen und glauben, dass Roboter Menschen nicht ersetzen, sondern vielmehr fördern und ergänzen. Im Allgemeinen sind Roboter wie Mimus von den Menschen völlig abgesondert und erledigen eintönige Aufgaben am Fließband. Mit Mimus zeigen wir, wie die Integration ausgeklügelter Software in branchenüblicher Hardware unsere Beziehung zu diesen komplexen und oft gefährlichen Maschinen von Grund auf neu definieren kann. Wir zeigen eine Zukunft, in der Roboter nicht als Gegner des Menschen betrachtet werden und autonome Maschinen wie Mimus zu Gefährten werden, die eine friedvolle Koexistenz mit uns auf diesem Planeten führen.

Industrieroboter bilden die Grundlage der robotischen Infrastruktur und haben sich in den vergangenen 50 Jahren kaum verändert. Mit Mimus präsentieren wir das bislang ungenutzte Potenzial dieser altvertrauten industriellen Technologie, mit und nicht gegen Menschen zu arbeiten. Unsere Software demonstriert, wie kleine strategische Veränderungen eines Automatisierungssystems ein tonnenschweres Maschinenungeheuer dazu bringen können, seinen Platz am Fließband, wo es z.B. mit Punktschweißen im Fahrzeugbau beschäftigt ist, zu verlassen, um neugierig und lebhaft wie ein junger Hund einem Kind in einem Museum nachzulaufen. Wir hoffen, zeigen zu können, dass trotz unserer kollektiven Ängste vor Robotern auch Potenzial für Empathie und Freundschaft zwischen Mensch und Maschine besteht.

Credits

Madeline Gannon ist Gründerin und leitende Forscherin des ATONATON-Entwicklungsteams: Madeline Gannon, Julian Sandoval, Kevyn McPhail, Ben Snell
Unterstützt von: Autodesk, ABB Robotics, and The Studio for Creative lnquiry

Über die Künstlerin

Madeline Gannon (US) ist eine Designerin mit interdisziplinärem Ansatz, die an der Schnittstelle von Kunst und Technologie arbeitet. Sie leitet das Forschungslabor ATONATON, das sich zum Ziel gesetzt hat, die Kommunikation mit Maschinen zu optimieren. Gannon designt und implementiert innovative Instrumente, mit denen die Zukunft digitaler Fabrikation erforscht wird. In ihren Arbeiten verbindet sie Kenntnisse aus Design, Robotik und Mensch-Computer-Interaktion, um Innovationen an den Rändern digitaler Kreativität zu schaffen. Derzeit schließt sie das Studium Computational Design an der Carnegie Mellon University ab, wo sie Techniken für digitales Design und die Herstellung von Wearables am und um den Körper entwickelt.

Lesen Sie mehr auf: starts-prize.aec.at.

This project is presented in the framework of the STARTS Prize 2017. STARTS Prize received funding from the European Union’s Horizon 2020 research and innovation programme under grant agreement No 732019.

eulogos2017

]]>
Hanging Drawbot https://ars.electronica.art/ai/de/hanging-drawbot/ Mon, 14 Aug 2017 12:14:26 +0000 https://ars.electronica.art/ai/?p=1110

Markus Gütlien (DE)

Hanging Drawbot ist ein Zeichenroboter, der Linien autark und algorithmisch zeichnet. Die BetrachterInnen können mit der Maschine interagieren und dadurch ihre Bewegungen beeinflussen. Idealerweise lässt diese Symbiose aus Zufall, Maschine und Mensch Kunst durch Kooperation entstehen.

]]>
Hexapod https://ars.electronica.art/ai/de/hexapod/ Tue, 08 Aug 2017 20:28:13 +0000 https://ars.electronica.art/ai/?p=2380

Der Hexapod ist ein spinnenartiger Roboter, welcher zum Forschungsziel hat, die Trainierbarkeit von biomechanischen Vorgängen neuronaler Netzwerke zu zeigen.

Mittels diverser deep-learning Frameworks werden am schulinternen Server der HTL Spengergasse und der TU Wien tausende Simulationen bzw. Traningssets für das Reinforcement Learning durchgeführt und anschließend am Hexapod erprobt. Um sich jedoch seines Umfeldes klar zu sein, greift der Hexapod auf eine Stereokamera zu, welche die Informationen bezüglich des Umfelds nutzbar macht. Mit Hilfe von Objekterkennung kann der Roboter selbstständig in seinem jeweiligen Einsatzgebiet navigieren und Aufgaben ausführen.

]]>
End of Life Care Machine https://ars.electronica.art/ai/de/end-of-life-care-machine/ Tue, 08 Aug 2017 19:51:47 +0000 https://ars.electronica.art/ai/?p=3573

Dan Chen (TW/US)

End of Life Care Machine ist eine interaktive Installation, die aus einem leeren Raum, Sitzgelegenheiten und einem Empfangspult besteht. Schilder, ärztliche Armbänder, Broschüren zur Gesundheitsinformation und weitere Requisiten erinnern an ein Krankenhaus oder ein Hospiz.

In dem fluoreszierend beleuchteten Raum steht neben dem Krankenbett der Last Moment Robot. Er ist als medizinischer Apparat konstruiert und verfügt über einen weichen Arm, der streicheln kann. Der Roboter wurde programmiert, um sterbende PatientInnen zu begleiten und zu umsorgen. Der gesamte Prozess wird sorgfältig dokumentiert.

ZuseherInnen sind eingeladen den Raum zu betreten, begleitet von einem Menschen im Arztkittel. Nachdem sich die PatientInnen ins Bett neben den Roboter gelegt haben, fragt er Arzt um Erlaubnis den Arm der PatientInnen unter den zärtlichen Mechanismus zu legen. Sobald die Sterbenden im Bett liegen und der Apparat aktiviert ist, zeigt ein LED-Bildschirm die Schrift “Lebensende wird festgestellt” an. Daraufhin verlässt der Arzt den Raum und lässt den Menschen allein. Wenn der Roboter erkennt “Lebensende festgestellt” beginnt er den Arm der oder des Sterbenden zu streicheln, um die letzten Momente so liebevoll wie möglich zu gestalten. Last Moment Robot reizt die Vorstellung des Ersatz des Menschen durch Maschinen aus. Das Projekt ermöglicht, den Einsatz roboterbasierter Intimität zu überdenken.

Die Arbeit wird hier als Prototyp gezeigt.

]]>
1:1 https://ars.electronica.art/ai/de/11/ Tue, 08 Aug 2017 14:10:07 +0000 https://ars.electronica.art/ai/?p=2617

Ein Ars Electronica Futurelab Academy @ QUT Project

Jacob Watton (AU), Briony Law (AU), Jaymis Loveday (AU), Charles Hendon (AU)

Das Projekt 1:1 handelt von der Beziehung zwischen einem Menschen und einer Roboter-Kamera: wie sie es im Lauf der Zeit schaffen, sich den anderen auf komplexe Weise vorzustellen und einander im Maßstab 1:1 zu sehen. Diese Arbeit, die Elemente aus Tanz, Theater und neuen Technologien verwendet, ist an der Schwelle zwischen dem Menschen und dem Anderen angesiedelt.

Die Ars Electronica Futurelab Academy wurde ins Leben gerufen, um Studierende und Lehrende aus internationalen Partnerinstitutionen bei ihrer transdisziplinären Praxis zu unterstützen. Seit 2012 hat die Plattform Kollaborationen zwischen Ars Electronica und Universitäten in der ganzen Welt ermöglicht.

Performance Times

DO 7. 9.
19:00 – 19:20
20:45 – 21:05

FR 8. 9.
18:00 – 18:20

SA 9. 9.
11:00 – 11:30 micro performance + artist & team Q&A
18:00 – 18:20

SO 10. 9.
11:00 – 11:30 micro performance + artist & team Q&A
18:00 – 18:20

MO 11. 9.
12:00 – 12:30 performance + artist & team Q&A
14:00 – 14:30 performance + artist & team Q&A
16:00 – 16:30 performance + artist & team Q&A
18:00 – 18:30 performance + artist & team Q&A

Credits

Supported by: Producer: Lincoln Savage (AU); Assistant Producer: Quinty Pinxit-Gregg (AU); Researcher: Nicole Robinson (AU/UK); Dramaturge: Kathryn Kelly (AU); Roboticists: Marisa Bucolo (AU), David Hedger (AU) and Paco Sanchez-Ray (AU); Project Consultant (dramaturg and choreographic development): Dr. Stephanie Hutchinson (AU)

The 1:1 project was realized through the generous support of QUT Creative Lab, Robotronica and QUT Robotics Lab.

This project has been assisted by the Australian Government through the Australia Council, its arts funding and advisory body.

]]>