Digitaler Projekttag der Informatik 2020

Herzlich Willkommen!

Die Studierenden des Fachbereich Informatik der Universität Bremen stellen auf dieser Internetseite die Ergebnisse ihrer Arbeit in den Bachelorprojekten und einem Masterprojekt vor.

Die einzelnen Projektbeschreibungen lassen sich aufklappen und weitere Informationen ansehen oder herunterladen.

Projektvorstellungen

Das Projekt B-Human nimmt seit 2009 an den Roboterfußballwettbewerben des RoboCup und dessen regionalen Ablegern in der Standard Platform League teil. In dieser verwenden sämtliche Teams den humanoiden Roboter Nao der Firma SoftBank Robotics, um gleiche Hardwarevoraussetzungen zu gewährleisten. Somit konzentriert sich die Arbeit des Projektes vornehmlich darauf, die Software der Roboter weiterzuentwickeln und zu verbessern. Dies umfasst diverse verschiedene Aufgabenfelder, unter anderem Bilderkennung, Lokalisierung sowie autonome Agenten. Dem Projekt B-Human gelang es, aufbauend auf der Software der Vorgänger, bisher neunmal die RoboCup GermanOpen für sich zu entscheiden. Auch international ist B-Human äußerst erfolgreich: Insgesamt konnten wir sieben Weltmeistertitel nach Hause bringen, den letzten 2019 aus Sydney.

Aufgrund der diesjährigen Corona-Pandemie und den damit einhergehenden Kontaktbeschränkungen, musste der Robocup für dieses Jahr leider abgesagt werden. Die German Open in Magdeburg wurden in den Spetember verschoben. Da leider auch der Projekttag nur digital stattfinden kann, haben wir stattdessen ein paar Videos für euch gedreht, welche einen Einblick in die diversen Tätigkeitsbereiche des Projektes geben sollen. Wenn ihr Interesse habt, könnt ihr euch auf unserem Kanal auch richtige Fußballmatches anschauen, die wir bei vergangenen Wettbewerben aufgenommen haben.

Der Einsatz von Lehrmaterialien in Schulen beschränkt sich seit jeher fast ausschließlich auf Medien von kommerziellen Verlagen. Als mögliche Alternative existieren seit einiger Zeit offene Bildungsmedien, sogenannte Open Educational Ressources (kurz OER). Diese zeichnen sich vor allem durch die freie und wenig beschränkte Nutzung aus. Im Projekt BM4OER geht es darum, ob solch ein Modell auch in der realen Praxis eingesetzt und überleben kann. Zentrale Fragestellungen, die innerhalb des Projektes beantwortet werden, betreffen zum einen die nötige Qualitätssicherung, da sichergestellt werden muss, dass die Materialien einen gewissen Standard erfüllen. Zudem werden rechtliche Aspekte, die die mögliche Verwendung von OER im Schulbetrieb betreffen, erforscht.

Außerdem werden geeignete Geschäftsmodelle untersucht, da offene Bildungsmedien keine direkten Erlöse erzielen. Dazu ist es nötig, den aktuellen Markt rund um Open Educational Resources zu analysieren, sowie valide Anforderungen an eine Plattform zu erheben. Dazu werden Stakeholder in Rahmen von Interviews oder Umfragen befragt. Die Ergebnisse werden sowohl in schriftlichen Dokumenten festgehalten, welche die Antworten auf die Fragestellungen beinhalten, als auch in einem interaktiven Prototyp, der den praktischen Einsatz eines OER Portals präsentiert.

Wir laden Sie ein, sich unsere Ergebnisse auf der Projekt-Webseite anzusehen.

In Zusammenarbeit mit dem Fraunhofer MEVIS haben wir uns während der Projektzeit mit verschiedenen Aufgaben rund um das Thema Deep Learning befasst. Deep Learning bezeichnet hierbei eine Form von künstlichen neuronalen Netzen mit diversen Zwischenschichten, die am MEVIS für die Erkennung und Verarbeitung medizinischer Bilddaten verwendet werden. Beispiele für diese Bilddaten sind CT- und MRT-Bilder, in denen Knochen, Knorpel, Bänder, Organe oder Tumore erkannt werden sollen.

Innerhalb der Projektgruppe haben sich zwei Untergruppen zu verschiedenen Interessengebieten gebildet. Ein Teil hat sich die Verbesserung und Erweiterung der Software von MEVIS, dem MeVisLab, zum Ziel genommen. Die Arbeit mit neuronalen Netzen und das Einlesen von Daten soll vereinfacht und weitere neue Funktionen sollen zur Verfügung gestellt werden.

Der andere Teil legte den Schwerpunkt auf die Teilnahme an verschiedenen Challenges. Dabei wurden mithilfe des MeVisLab eigene neuronale Netze auf bereitgestellten Datensätzen trainiert, um das jeweilige Challengeziel bestmöglich zu erfüllen. Die bereitgestellten Datensätze sind Bilddaten, in denen Experten bestimmte Strukturen markiert haben. Die mit diesen Datensätzen trainierten neuronalen Netze sollen entsprechende Markierungen, so präzise wie möglich, in neue Bilddaten ohne Markierungen einfügen.

HoloAI steht für »holographic Artificial Intelligence«. Holografische Projektionen sind ein beliebtes Motiv in der Sciencefiction Pop-Kultur. In Star Wars gibt es mobile holografische Telefonie, im Spiel Half-Life wird man mit holografischen Assistenten durch das Tutorial geführt, und in Star Trek wird sogar ein holografischer Bordarzt eingesetzt. Das holoAI-Projekt hat als Ziel die Entwicklung eines holografischen Agenten, der interaktiv auf die Anfragen seiner Benutzer reagiert. Teil des Projekts sind sowohl die Gestaltung eines dreidimensionalen, humanoiden Avatars, als auch die Entwicklung eines leistungsstarken Backends unter Anwendung moderner KI-Technologie. Ausgestattet mit multimodaler Sensorik ist der Agent in der Lage auf Sprache, Mimik und Gestik von Menschen zu reagieren, sowie wiederkehrende Benutzer zu erkennen. Ansässig im Cartesium-Gebäude sollen Besucher begrüßt und über standortspezifische Fakten informiert werden. Der Aufbau ist Teil des Wissenschaftsschwerpunktes Mind, Media, Machines (MMM).

Mobile4D hat es sich mit seinen IT-Projekten zur Aufgabe gemacht, Länder in medizinischer Hinsicht und in Hinblick auf die humanitäre Sicherung zu unterstützen. Außerdem entwickeln wir Systeme um die Verbreitung von Krankheiten wie Malaria, die von Mosquitos übertragen werden, zu analysieren und ihnen vorzubeugen. Unsere jüngsten Projekte befassen sich mit der Früherkennung des schwierig diagnostizierbaren Dengue-Fieber und dem Entwickeln eines Systems zur akustischen Identifikation von mit Malaria infizierten Mosquitos.

Mit unseren Projekten stehen wir in engem Kontakt mit unseren Partnern in Thailand und Laos und haben im Wintersemester 19/20 wieder ein paar TeilnehmerInnen nach Bangkok geschickt um dort die Dengue Diagnose App für eine Betaphase zu etablieren.

Das SUTURO Projekt nahm zum ersten Mal 2019 am RoboCup@Home teil. Unser Ziel war auch dieses Jahr im April nach Magdeburg zu fahren, um auf den Erfolgen des letzten Jahres aufzubauen. Der RoboCup@Home ist ein internationaler Wettkampf in dem unterschiedliche akademische Teams gegeneinander antreten. Die Herausforderung: Serviceroboter so programmieren, dass dieser unterschiedliche Aufgaben aus dem echtem Leben bewältigen kann. Dabei gibt es zwei Aufgabenkategorien: Party Host und Housekeeper.

Das Bachelorprojekt systemXrunner verbindet Spaß an Games mit Interesse an komplexen Hardware-Software-Systemen: Wir haben eine Game-Cartridge mit SD-Karten-Slot für das Nintendo Entertainment System (NES) entwickelt. Auf diese Weise muss man nicht ständig die Cartridge wechseln, wenn man ein anderes Spiel spielen will, sondern man kann seine gesamte Spielebibliothek auf einer einzigen SD-Karte speichern und über einen Microcontroller auf die NES laden. Innerhalb von Sekunden könnt ihr so bequem zwischen Super Mario Brothers, Legend of Zelda Mega Man und vielen weiteren wechseln.

Wenn ihr mehr wissen wollt über das System aus NES und Cartridge, über Embedded Software Development in Assembly oder einfach über Retro Games, dann besucht unsere Seite!

Das Feld der Virtual Reality Anwendungen ist eine vergleichsweise neue und rapide wachsende Industrie. Während Entwickler Tracking, visuelle Qualität und Eingabegeräte konstant verbessern, gibt es einen Aspekt der noch nicht in vollem Umfang ausgeschöpft wird: Haptisches Feedback.

Wir vom “Tangible Sandbox Games” Masterprojekt haben untersucht, welche Effekte Multimodalität auf die Nutzererfahrung und Verhalten in VR hat. Um dies herauszufinden, haben wir mit der Unity Game-Engine ein Virtual-Reality Tower Defense Spiel entwickelt, welches sowohl in einer rein virtuellen, als auch in einer realen, physischen Sandbox spielbar ist.

Hierbei werden klassische Vive-Controller-Eingaben verglichen mit der Haptik einer realen Sandbox und der Ausnutzung der Hände in Leap Motion. Ein Vergleich von Nutzer- / Spielererfahrung und Performance sowie eine exploratorische Analyse der verschiedenen Spielweisen sollen uns Aufschlüsse über die Chancen einer haptischeren Umgebung eröffnen.

Das Projekt Tiefsee befasst sich mit diffusen Ausflüssen am Meeresgrund. Ziel ist es, diese Ausflüsse in einer Bildübertragung automatisiert zu detektieren. Zur Unterstützung findet eine digitale und experimentelle Nachstellung dieses Naturphänomens statt.

Kommen in Ausflüssen viele Partikel vor, können sich Phänomene wie die »Black Smoker«, die wahrscheinlich bekanntesten Unterwasserquellen ergeben. Bei diffusen Ausflüssen tritt hingegen Wasser ohne gut sichtbare Partikel aus. Es unterscheidet sich vom umgebenden Medium lediglich durch seine Temperatur oder seinen Salzgehalt. Hieraus ergeben sich unterschiedliche Brechungsindizes, die ein optisches Flimmern auslösen, vergleichbar mit heißer Luft über einem Kamin oder über Straßen an heißen Sommertagen. Diese Erscheinungen werden als »Schlieren« bezeichnet.

Für die Detektion werden in Python einzelne Bilder aus Videosequenzen von Ausfahrten mit Tauchrobotern entnommen und miteinander verglichen. Hiervon ausgehend wird bestimmt, ob sich der Hintergrund durch die Schliereneffekte in Subregionen der Bilder verschoben hat. Dies wird visuell hervorgehoben.

Im Bereich der Simulation werden Austritte und die damit verbundenen Effekte virtuell nachgestellt. Hierzu wurde ein eigener Renderer erzeugt. Ausgehend von Berechnungen in externen Programmen, in denen Austritte mit mehreren Phasen simuliert werden, wird im beim Rendering eine entsprechende Störung in den Raum eingefügt. Das Resultat sind optische Verzerrungen, die denen einer Schliere nahe kommen.

Experimentell wird versucht, unter Laborbedingungen und daher auch ohne Störfaktoren, die bei Aufzeichnungen vom Meeresgrund auftreten, Schlieren nachzustellen. Hierzu werden unterschiedliche Flüssigkeiten in ein Aquarium oder Becken eingeführt und das Ergebnis mit einer Kamera aufgezeichnet. Das Videomaterial kann zur Unterstützung und Verifikation der Ergebnisse der Detektion genutzt werden. Gleichzeitig entsteht auch Referenzmaterial für die Simulation, die die Möglichkeit erhält, den Versuchsaufbau nachzustellen und reale Ergebnisse mit dem Simulierten zu vergleichen. Es werden auch Erkenntnisse gesammelt, auf welche Ausstattung bei einem Unterwasserfahrzeug geachtet werden muss, das über eine automatische Schlierenerkennung verfügen soll.


Übersicht Beiträge

Website Unterseite mit Videos Video Projektbericht
BM4OER B-Human HoloAI systemXrunner
Tiefsee SUTURO Mobile4D Tiefsee
Mobile4D systemXrunner Tangible Sandbox Games
Deep Anatomy