Der BR41N.IO Hackathon beim Ars Electronica Festival richtet sich auch dieses Jahr wieder an rund 100 HackerInnen, DesignerInnen, KünstlerInnen und MakerInnen – an kreative Köpfe aus den verschiedensten Disziplinen von Kunst bis Wissenschaft. Zu gewinnen gibt es nicht nur Geldpreise bis zu 1.000 Euro – jede/r TeilnehmerIn erhält auch einen Festivalpass kostenlos dazu. Christoph Guger, CEO von g.tec, erzählt uns im Interview, welche Teams es diesmal beim 24-stündigen BR41N.IO Hackathon inmitten des Medienkunstfestivals geben wird und was man mit einem Brain-Computer-Interface (BCI) so alles machen kann. Ein Tipp vorab: Wer in der POSTCITY Linz nicht nur zusehen, sondern auch teilnehmen möchte, die/der sollte sich so schnell wie möglich anmelden: br41n.io/Linz-2019
Beim BR41N.IO-Hackathon wird es wieder verschiedene Teams geben – was genau wird man hier in 24 Stunden über das Brain-Computer-Interface ansteuern können?
Christoph Guger: Da haben wir zunächst einmal das Projekt „Unicorn Speller: Smart Home“, für das man sich auf br41n.io/Linz-2019 anmelden kann. Über Arduino lassen sich zum Beispiel Steckdosen ansteuern und mittels BCI kann man hier elektronische Geräte oder Lichter ein- und ausschalten, wenn man sich auf eins der selbstgestalteten Icons am Bildschirm konzentriert. Das Interface lässt sich aber auch mit „smarteren“ Dingen eines Smart Homes verbinden. Hier können sich die Leute austoben, kreativ sein und auch andere Expertisen einbringen – also perfekt für einen Hackathon.
Das Team „Your Hacking Project“ wird sich den eigens mitgebrachten Projekten und der Verbindung mit dem Brain-Computer-Interface widmen. Im vergangenen Jahr hatten wir ein Hacking-Projekt von MusikexpertInnen, die das BCI dazu genutzt haben, um Musik per Gedanken zu beeinflussen und zu komponieren. Ideal für Leute, die sich mit Musik und Programmierung beschäftigen. Beim Hackathon in Banff, Kanada, hatten wir HackerInnen, die einen LEGO-Mindstorm-Roboter an das BCI angeschlossen haben und ihn damit steuern konnten. Da sind sehr schöne Sachen herausgekommen!
Was ist das für ein Ball, kann man den auch steuern?
Christoph Guger: Ja genau, ein Roboterball! Das Team von „Unicorn Sphero“ wird einen dieser Roboterbälle über das Brain-Computer-Interface koordinieren können – also, wo dieser hinrollen soll und ob der Ball seine Lichter ein- oder ausschaltet. Einerseits ist das ein Programmierprojekt, um sich auf spielerische Weise ins Thema Robotik vertiefen zu können – wenn man über den Roboterball dann aber auch Farben darüber schüttet, lassen sich mit diesen Kugeln ganz schnell bunte Bilder malen. Da entstehen dann auch schöne Ergebnisse, wenn sich mehrere Festival-TeilnehmerInnen über BCI dazuschalten und gemeinsam ein Bild malen.
Bei „Unicorn Painting“ hat uns vor zwei Jahren der Künstler Dragan Illic bei unserem Hackathon am Ars Electronica Festival gezeigt, welche Möglichkeiten es sonst noch gibt, mittels Brain-Computer-Interface Bilder zu malen. Er hat gleich einen riesigen Industrie-Roboter mit mehreren Dutzend Farbstiften auf dem Greifarm an das BCI angeschlossen und mit seinen Gehirnaktivitäten schöne Paintings gemacht. Es wird zwar nicht ganz so groß, aber wir werden hier wieder die Messdaten nutzen, um Bilder zu malen.
Ein Team wird sich auch mit dem „fNIRS and EEG Control“ beschäftigen… Was kann man damit machen?
Christoph Guger: Das ist heuer das erste Mal, dass wir auch fNIRS, functional near-infrared spectroscopy, mit im Gepäck haben. Das funktioniert so ähnlich wie Magnetresonanz, nur dass es portabel ist. Im Grunde genommen leuchten LEDs in das Gehirn, womit man die Blutsättigung von verschiedenen Gehirnarealen messen kann. Wo mehr Blut ist, ist gedanklich mehr los. In Kombination mit dem EEG lassen sich so viele Funktionen aus dem Gehirn herausholen. Mit fNIRS kann man Schmerzen erkennen, Fingerbewegungen eher mit EEG – koordiniert man beide Messmethoden, kann man interessante Projekte damit machen.
Auch für die GamerInnen unter uns gibt es ein eigenes Team, das die direkte Schnittstelle zum Gehirn nutzt!
Christoph Guger: „Unity Games“ sind immer lässig, da kann man mit der Plattform Unity Virtual-Reality-Spiele programmieren, Kommandos vom Gehirn an das Spiel senden und dabei weitere Interfaces wie eine Oculus Rift oder eine HTC Vive nutzen. Beim Hackathon in Japan haben zwei Spieler miteinander eine Art „Super Mario“ miteinander gespielt – der eine über Tastatur, der andere über BCI. Ein schönes Beispiel, wie man Brain-Computer-Interfaces nutzen kann, da sie nur dann gewinnen konnten, wenn sie beim Spielen zusammen geholfen haben.
Bei „Flight Control“ steuern wir eine Drohne mittels BCI! Ein lässiges Projekt, das wir bereits beim Hackathon des Ars Electronica Festival hatten: Mittels BCI „denkt“ man an eine Person, die im Festivaltrubel gefunden werden muss, und die Drohne ist dann so lange geflogen, bis sie über die eingebaute Kamera die jeweilige Person über Gesichtserkennung gefunden hat.
Was hat es mit „Dream Painting“ auf sich?
Christoph Guger: Das ist wirklich das, wonach es klingt: Bilder malen im Schlaf. Dabei werden im Schlaf Gehirnströme gemessen, mit dem BCI kann dann rekonstruiert werden, welche Gehirnareale gerade aktiv sind und daraus können dann Bilder am Computer entstehen. In einem Schlaflabor in München haben wir einmal ein spannendes Experiment gemacht, wo sich jemand im Traum vorgestellt hat, einen Roboter zu steuern, und die Signale des BCI haben dann einen echten Roboter in Barcelona gesteuert. Das haben wir dann auch bei einem Hackathon versucht, eine Person hat dann ein paar Stunden geschlafen, nur sind wir dann leider darauf gekommen, dass das BCI nicht eingeschalten war. :)
Welche coolen Projekte fallen dir sonst noch ein, die wir jetzt vergessen haben?
Christoph Guger: Bei einem Hackathon in Banff, Kanada, hatten wir mal ein recht interessantes Projekt: Unity Rehab, das wird es auch in Linz geben. Hier erschaffen wir ein Unity-basiertes Spiel, das für Rehabilitationszwecke verwendet werden kann. Damals in Banff ist ein Projekt entstanden, bei dem virtuell zwei „Neurochirurgen“ mit einem Head-Mounted-Display und einem BCI eine Simulation einer Operation durchführen konnten. Dieses Trainings-Setup wurde innerhalb der 24 Stunden für Unity entwickelt und hat dann auch den ersten Preis gewonnen.
Und dann gibt es noch das Projekt „Gin Tonic Robot“ – das BCI misst, wie gestresst eine Person ist. Je nachdem, ob man entspannt oder angespannt ist, wählt der Roboter dann das Mischungsverhältnis von Gin und Tonic aus. Bei „Orthosis Control“ ist es hingegen möglich, mittels BCI eine 3-D-gedruckte Orthese, die unter anderem zur Entlastung von Gliedmaßen eingesetzt wird, zu bewegen. Das hat einen durchaus seriösen Hintergedanken, an die linke Hand zu denken und ein Motor fängt an, diese zu bewegen – ein gelähmter Patient könnte dadurch wieder seine Gliedmaßen bewegen, indem man diese Apparatur darüberstülpt. Und dann gibt es noch zwei Teams, die sich damit beschäftigen, das Brain-Computer-Interface, das man sich wie eine Haube auf den Kopf setzt, neu zu designen.
Wie kann man sich das vorstellen, braucht man für die Hackathons Programmierkenntnisse?
Christoph Guger: Wir kommen grundsätzlich mit 30 solcher Unicorns, das sind unsere Brain-Computer-Interfaces, zum Hackathon beim Ars Electronica Festival. Mit dabei ist die ganze Hardware, die man braucht, um Gehirnströme zu messen. Und wir haben eine Unicorn-Suite als Programmierumgebung, mit der man schon erste fertige Applikationen ausprobieren kann. Mit dem Protokoll UDP kann man darüber hinaus verschiedene Messages an weitere Geräte verschicken. Also, wenn man zum Beispiel „gedanklich“ auf ein Symbol am Bildschirm drückt, wird über UDP die Nachricht weitergeleitet, wo dann das Licht angeht. Das kann man recht einfach in dieser Software einstellen, dazu braucht man eigentlich keine Programmierkenntnisse.
Wenn aber jemand wirklich programmieren möchte, funktioniert das dann in .NET und C APIs, oder aber auch SIMULINK – ein leicht zugängliches Rapid Prototyping Enviroment, mit dem man eigentlich sehr schnell Applikationen erstellen kann. Darüber hinaus gibt es auch ein Python-Interface, da die Signalverarbeiter oft Python gewöhnt sind. Grundsätzlich lassen sich noch alle möglichen Toolboxen mit dem BCI kombinieren! Wer in Unity programmieren kann, der kann schnell Spiele oder Simulationen damit verwirklichen. Die TeilnehmerInnen können aber auch ihre Hardware einfach mitnehmen oder aber auch Codefragmente, die sie schon entwickelt haben, und dann das BCI einfach dazuhängen!
Wie läuft so ein Hackathon eigentlich ab?
Christoph Guger: Wichtig ist, dass sich die Leute vorab bei uns rechtzeitig registrieren, damit wir die verschiedenen Teams zusammenstellen können. Das ist ab sofort unter br41n.io/linz möglich! Beim Hackathon von SA 7. auf SO 8. September 2019 in der POSTCITY Linz, Österreich, beginnen wir mit einer kurzen Theorieeinführung, damit man ein bisschen versteht, wie BCIs funktionieren und was man damit schon alles tun kann. Dann folgt eine praktische Einführung, wo man richtig schon selber messen und arbeiten kann. Hier lernt man wie man das Brain-Computer-Interface am Kopf montiert und kalibriert, damit dann in Echtzeit Daten herauskommen. Und dann geht es so richtig los mit dem Hacken. Ab Samstagmittag hat man dann 24 Stunden Zeit, gemeinsam im Team ein Ziel zu überlegen und das dann zu realisieren.
Da ist es vor allem von Vorteil, wenn verschiedene Expertisen zusammenkommen. Normalerweise ist ein/e HardwareentwicklerIn gut, ein/e ProgrammiererIn und ein/e SoftwareentwicklerIn, jemand, die/der sich um die User-Interfaces, für das Konzept, für die künstlerischen Aspekte und für die Präsentation vor der Jury kümmert. Den ganzen Making-Process in Bildern und Videos festzuhalten, also zu dokumentieren, wie und warum man zum Ziel gelangt, ist dann auch ganz wichtig, wenn es um die Bewertung der Projekte geht. Viele arbeiten die ganze Nacht durch, da kommt immer eine gute Gruppendynamik zusammen.
Wer bewertet die Projekte und was kann man gewinnen beim BR41N.IO Hackathon in Linz?
Christoph Guger: Für die Hackathons haben wir wieder die IEEE brain als Sponsor gewinnen können – eine weltweite Organisation, die die Neurowissenschaften und Projekte rund ums Gehirn vorantreibt. Neben Geldpreisen von bis zu 1.000 Euro wird es auch wieder eine Einladung zu Konferenzen wie diesmal nach Chicago geben, wo man das eigene Projekt präsentieren kann. Und natürlich bekommt jede und jeder TeilnehmerIn einen Festivalpass zum Ars Electronica Festival kostenlos dazu.
In der Jury sind: Michael Altrichter von startup300, bekannt von der österreichischen Fernsehsendung „2 Minuten 2 Millionen“, bei der Start-Ups Investoren von ihrer Firmenidee überzeugen müssen. Alois Ferscha vom „Institute of Pervasive Computing“ der Johannes Kepler University Linz ist mit dabei, ebenso Alexander Egyed und Christoph Hintermüller von der JKU Linz, Christa Sommerer von der Kunstuniversität Linz, der High-Tech-Unternehmensberater Mikhail Arshinskiy, Thomas Haslwanter von der Fachhochschule Linz, wo es rund um Medizintechnik geht, Chris Bruckmayr von den Ars Electronica Solutions und auch ich werde mir all die Projekte ansehen! Ich bin schon sehr gespannt!
Christoph Guger ist Gründer und Geschäftsführer der Firma g.tec medical engineering GmbH. Er studierte Bio-/Medizintechnik an der Technischen Universität in Graz und der Johns Hopkins University in Baltimore, USA, wo er das erste Brain-Computer Interface entwickelte, das in Echtzeit Gehirnsignale aufnimmt und verarbeitet.
Jetzt noch schnell anmelden und einen Platz in einem der Teams des BR41N.IO-Hackathon beim Ars Electronica Festival 2019 in der POSTCITY Linz sichern! Hier klicken und anmelden, am 7. September 2019 um 10:00 geht es dann los! Als Festival-BesucherIn können Sie den HackerInnen dann über die Schulter schauen.