Return to the talk Return to talk

Transcript

Select language

Translated by Maximilian Mueller-Eberstein
Reviewed by Rafael Barranco-Droege

0:11 Computer sind ein unglaublich mächtiges Mittel zur kreativen Entfaltung. Allerdings beschränkt sie sich zum größten Teil auf den Bildschirm unserer Laptops und Handys. Ich möchte Ihnen zeigen, wie man diese Fähigkeit der Computer, Dinge zu bewegen und mit uns zu interagieren vom Bildschirm in die physische Welt bringen kann, in der wir leben.

0:32 Vor einigen Jahren wurde ich vom Luxusmode-Geschäft Barneys New York angerufen. Bald darauf entwarf ich kinetische Skulpturen für ihre Schaufenster.

0:41 Diese hier heißt "The Chase". Darin bewegen sich zwei Schuhpaare, das eines Mannes und das einer Frau. Sie inszenieren eine langsame, angespannte Verfolgung durch das Schaufenster. Der Mann nähert sich der Frau von hinten und dringt in ihre Distanzzone ein. Dann bewegt sich die Frau weg. Unter jedem Schuh ist ein Magnet. Auch unter dem Tisch sind Magneten, mit denen die Schuhe bewegt werden.

1:02 Mein Freund Andy Cavatorta baute eine Roboter-Harfe für Björks "Biophilia"-Tour. Ich erstellte dafür die Elektrotechnik und die Software zur Bewegungssteuerung, um die Harfe zum Klingen zu bringen. Die Harfe besteht aus vier Pendeln und jedes Pendel hat elf Saiten. So schwingt die Harfe um ihre Achse und dreht sich, um verschiedene Noten zu spielen. Alle Harfen sind miteinander vernetzt, damit sie die richtigen Noten zum vorgesehenen Zeitpunkt spielen können.

1:30 Ich habe auch ein interaktives Chemie-Modell für das Wissenschafts- und Industriemuseum in Chicago gebaut. Es ermöglicht Besuchern, Gegenstände zu benutzen, um chemische Elemente aus dem Periodensystem anzufassen und zusammenzubringen, um chemische Reaktionen zu simulieren. Dem Museum fiel auf, dass die Besucher viel Zeit mit diesem Modell verbrachten. Eine Forscherin eines Zentrums für Wissenschaftliche Bildung in Australien versuchte herauszufinden, warum das so war. Sie fand heraus, dass die Gegenstände den Besuchern dabei halfen, zu verstehen, wie man das Modell bedient und wie sie miteinander lernen können.

2:05 Wenn man darüber nachdenkt, ergibt es eine Menge Sinn, dass spezial angefertigte Gegenstände die Bedienung eines Interface erleichtern können. Denn unsere Hände und unser Verstand dazu optimiert, um über greifbare Gegenstände nachzudenken und damit umzugehen. Was ist z. B. für Sie leichter zu verwenden: eine physische Tastatur oder die virtuelle Tastatur eines Smartphones?

2:26 Bei all diesen Projekten beschäftigte mich jedoch besonders, dass alles von Grund auf gebaut werden musste. Von der Elektrotechnik, den Platinen und all den Mechanismen bis hin zur Software. Ich wollte etwas bauen, womit wir computergesteuerte Gegenstände bewegen und Interaktionen schaffen können, ohne jedes Mal alles von Grund auf entwerfen und bauen zu müssen.

2:48 Mein erster Versuch hierfür stellte ich am MIT Media Lab mit Professor Hiroshi Ishii an. Wir bauten ein Feld aus 512 verschiedenen Elektromagneten, die dazu in der Lage waren, Objekte umher zu bewegen. Problematisch war nur, dass diese Magneten über 10.000 US-Dollar kosten. Jeder einzelne ist zwar klein, aber zusammen wiegen sie so viel, dass die Tischplatte begann sich unter ihnen zu biegen. Ich wollte also etwas bauen, bei dem eine solche Interaktion auf jeder flachen Oberfläche möglich wäre.

3:20 Um diese Idee zu erforschen, schuf ich eine Armee kleiner Roboter und jeder dieser Roboter hat omnidirektionale Antriebe. Das sind besondere Räder, die sich in jede Richtung gleich gut bewegen lassen. Wenn man diese Roboter mit einem Beamer kombiniert, erhält man physische Werkzeuge, um mit digitalen Daten zu interagieren. Hier ist ein Beispiel: Dies ist ein Videobearbeitungsprogramm, bei dem alle Steuerelemente zur Videomanipulation physisch sind. Im Modus zur Farbbearbeitung erscheinen drei Regler. Oder wenn wir den Ton einstellen möchten, betätigen wir auch zwei physische Regler. Hier laufen der linke und der rechte Kanal synchron, aber wir können dies übergehen, indem wir einfach beide Regler gleichzeitig bedienen. Die Grundidee dabei ist, die Geschwindigkeit und Effizienz physischer Regler und die Flexibilität und Vielseitigkeit eines Softwaresystems zu erlangen.

4:18 Das hier ist eine Landkarten-Software für den Katastrophendienst. Diese Gegenstände stehen für Polizei, Feuerwehr und Rettungsdienst. Der Disponent kann sie anfassen und auf der Karte absetzen, um den Einheiten zu sagen, wohin sie müssen. Daraufhin wird ihre Position auf der Karte mit der in der Realität synchronisiert.

4:39 Das hier ist eine Videochat-Applikation. Es ist erstaunlich, wie viel Gefühl man mit ein paar Bewegungen eines Gegenstands vermitteln kann. Dieses andere Interface eröffnet uns unglaublich viele Möglichkeiten auf dem Mittelweg zwischen Brettspielen und Arcade-Spielen, wobei verschiedene physische Interaktionsstile ebenso viele verschiedene Spielarten ermöglichen.

5:00 Aber einer der Anwendungsbereiche, der mich am meisten begeistert, ist das Lösen von den Problemen, die Computer oder Menschen nur schwer alleine lösen können. Ein Beispiel hierfür ist die Proteinfaltung. Hier haben wir ein Interface, bei dem wir physische Griffe an einem Protein haben. Wir können diese Griffe fassen und das Protein auf verschiedene Weisen falten. Beim Versuch, es wider die zugrundeliegende molekulare Simulation zu falten, erhalten wir eine physische Rückmeldung; wir fühlen tatsächlich, wie die Griffe Widerstand zeigen. Wenn wir also fühlen, was in einem Molekül vor sich geht, ist das eine ganz neue Art der Interaktion.

5:38 Wir haben gerade erst begonnen zu erforschen, was alles möglich ist, wenn wir Software verwenden, um die Bewegung von Gegenständen in unserer Umwelt zu steuern. So könnte der Computer der Zukunft aussehen. Es gibt keinen Touchscreen. Keine andere Technologie ist sichtbar. Aber wenn wir einen Videochat starten oder ein Spiel spielen möchten oder Folien für unseren nächsten TED-Vortrag vorbereiten wollen, erwachen die Gegenstände auf dem Tisch zum Leben.

6:03 Vielen Dank.

6:04 (Applaus)