Themenvorschläge für Projekt- oder Abschlussarbeiten

Hier findest Du Themenvorschläge für mögliche Bachelor- oder Masterarbeiten im //CSTI. Bei den Vorschlägen handelt es sich erst einmal um Ideen, das heißt individuelle Anpassungen insbesondere Teilelemente oder Erweiterungen sowie eigene Vorschläge sind bei uns herzlich willkommen!

 

Machine Learning

ML auf Radar-Daten

Mit einem neuen mehrkanaligen Radarsensor sollen Daten gesammelt und untersucht werden, wie Objekte und Umgebungen sich in den Sensordaten widerspiegeln. Danach soll exemplarisch eine radarbasierte Objekterkennung (Klassifizierung) realisiert und getestet werden.
 

Predictive Analysis

Daten werden heutzutage für alles mögliche ausgewertet. Besonders interessant wird es, wenn aus Daten Ereignisse in der Zukunft abgeleitet werden. Die möglichen Anwendungen sind vielfältig: Stichwort Minority Report, Betrüger erkennen (Fraud Detection, Intrusion Detection), Kundenverhalten bzw. Verhaltensanalyse (Cross Selling Chances), Resourcenplannung (Überbuchungsplanung) oder Risikobewertung (Kreditausfall, Versicherung). Oder Alltagsbeispiele wie: Ist morgen ein guter Tag zum Kitesurfen an der Nordsee?

Amazing Data?

Häufig stellen sich uns im Alltag fragen, die nicht so einfach zu entscheiden sind. Was macht einen guten Text aus? Ist das schön oder kann das weg? Soll der Schrank besser so rum stehen? Passt hier Türkis besser als Grün? Mit Hilfe von Text-Mining lassen sich Modelle „best practices“ bzw. Daumenregeln ermitteln, um solche Fragen (zum Beispiel mit Hilfe eines Companions) leichter beantworten zu können.

 

Mixed Reality

Virtual Escape Room: Solving Mixed Reality Puzzles

Die Idee ist die Entwicklung eines virtuellen „Escape Room“, in dem ein oder mehrere Spieler innerhalb einer bestimmten Zeit Puzzle lösen müssen, um das Spiel zu gewinnen. Die Puzzles können aus virtuellen und realen Objekten bestehen. Hierbei können Elemente von AR und VR kombiniert werden.

Virtual Tabletop Simulator: Create New Interactive Worlds

Mit der eingebauten 2D-Kamera in der HTC Vive könntest du Objekte vor dem Anwender erkennen, im virtuellen Raum einbinden und über Gesten manipulieren (Leap Motion). Eine Anwendung wäre zum Beispiel ein virtueller Tabletop Simulator (Brettspiel, Miniaturspiel) oder im kommerziellen Bereich wie zum Beispiel Marktforschung oder Innenausstattung (Ikea-Möbel).

Magical Moments: Spiel mit dem Feuerball (3D-Gestenerkennung)

Stell‘ dir vor, du bist Harry Potter und irrst gerade durch den verwunschenen Wald und muss dabei allerhand Hindernisse bewältigen. Hierzu benutzt du natürlich Zaubersprüche. Die Zauber können mit Hilfe eines echten Zauberstabs (Mixed Reality) oder mit Gesten (Leap Motion / Kinect) gewirkt werden.

Being Virtual Leonardo da Vinci: Creative with Virtual Tools

Werde Bildhauer mit Hammer und Meißel in einer virtuellen Welt und gestalte virtuelle Statuen.

 

Virtual Reality

Sicherheit mit virtuellen Räumen evaluieren: Ernstfallsimulation

Stell‘ dir vor es brennt, das Schiff sinkt, oder du muss schleunigst den Tempel des Todes verlassen. Plötzlich versperren Rauchschwaden die Sicht, Leute laufen panisch durcheinander. Mit solchen Simulationen in Virtual Reality könnte man den Ernstfall testen und auswerten, um Problemstellen zu erkennen und Anpassungen vorzunehmen.

Through the Looking Glass: externe Interaktive VR-Kamera (Video-Streaming)

Stell‘ dir vor, du könntest mit deinem Handy oder Tablet in eine VR-Welt mit eintauchen. So wirst du zum externen Beobachter und kannst zuschauen, was der aktuelle Benutzer mit der VR-Brille macht. Wenn du das Handy oder Tablet trackst, kannst du sogar dich in der VR-Welt mitbewegen ganz ohne VR-Brille! Hierzu denkbar wäre das Streamen von Videos in oder aus virtuellen Welten zum Beispiel für Bild-in-Bild-Anzeige oder auf einem Projektor/Beamer. Eine klassische Anwendung wäre zum Beispiel „Remote Assistance“ (Unterstützung bei Fernwartung) mit VR / AR.

 

Augmented Reality

Dive into Data: Datenvisualisierung

Du blickst auf ein Netzwerkkabel und siehst den Datenfluss. Du schaust auf die Lautsprecher und siehst Schallwellen (nach Lautstärke) und welches Lied auf welchem Lautsprecher gerade gespielt wird. Du schaust auf die Lichtanlage und siehst den Datenfluss der einzelnen RGB-Pakete. Ein Blick auf die Heizung zeigt wie kalt es gerade im //CSTI ist. Schließlich blickst Du auf den Serverschrank und siehst ein pulsierendes „Herz“.

Denkbar wäre auch die Nutzung von öffentlichen Datenquellen (Open Data) wie zum Beispiel Wetter, Wind, Verkehr, Parkplätze, Open Goverment / Transparenzportal, Gesundheit, Bildung, oder Energie:

Time Shift: Zeitreisen mit Hintergrund

Stell dir vor, du kannst vor und zurück in die Zeit reisen. Gleicher Ort, anderes Datum. Besonders interessant, um z. B. Menschen historische Veränderungen bzw. Ereignisse näher zu bringen (z. B. Klimawandel, Städtewandel, wie hoch war die letzte Flut in Hamburg?)

My Virtual RiP: Der digitale Friedhof

Die Digitalisierung macht selbst vor dem Tod kein Halt! Stell‘ dir vor, du spazierst über den Friedhof und bekommst per App eingeblendet, wer da eigentlich liegt und was seine letzten berühmten Zitate waren. Vielleicht ist sogar eine bekannte Persönlichkeit dabei? Oder stell‘ dir vor, der Grabstein fängt an zu sprechen… Wie ist es eigentlich sich in einen Sarg zu legen oder gar beerdigt zu werden? Jetzt hast du Chance, es auszuprobieren!

 

Human Computer Interaction

Bei Fuß! Sprachsteuerung im //CSTI

Sprachbefehle sind generell sehr praktisch, sie können insbesondere VR-Anwendungen durch eine neue Interaktionsform erweitern. Wir wollen daher zunächst Ein-Kommando-Sprachbefehle auf Basis der Google API lokal im //CSTI verfügbar machen. Mit Hilfe von Machine Learning könnte die Erkennung weiter ausgebaut und verbessert werden.

Gesichts- / Emotionserkennung

Automatisierung ist toll und nimmt viel Arbeit ab. Zum Beispiel wird das Zimmerlicht auf eine bestimmte Helligkeit gedimmt, wenn Heinz-Hermann das Wohnzimmer abends betritt. Noch besser ist es, wenn sich Computer automatisch an das Individuum anpassen. Hierzu muss aber erst einmal erkannt, um wen es sich handelt. Das lässt sich auf verschiedene Arten bewerkstelligen. Eine gängige Methode unter anderen ist die Gesichtserkennung über Kameras. Hier bietet sich gerade die Erkennung von Emotionen an, um noch besser auf Gemütszustände reagieren zu können. Mit Hilfe von Machine Learning ließe sich die Erkennung weiter verfeinern.

Dem Klimawandel auf der Spur: Umweltdatenanalyse und -visualisierung

Das Klima soll im //CSTI erfasst werden! Hierzu benötigen wir Kits aus Microcontroller und unterschiedlichen Sensoren (Staubsensoren, Temperatursensor, Luftfeuchtigkeit oder Luftdruck), die in unseren Räumen fest installiert und vernetzt werden. Eventuell müssen passende Platinen entwickelt und Gehäuse für die einzelnen Kits gedruckt werden. Weiterhin könnte man mit Machine Learning die unterschiedlichen Sensordaten auswerten.

Die erfassten Umweltdaten könnten auf einer Webseite visualisiert werden (z. B. mit https://d3js.org/), in Virtual Reality (Dive into Data) oder mit Augemented Reality. Umweltdaten aus weiteren Quellen (Open Data) können zusätzlich mit einfließen.

Körperzustand erfassen mit Biosensorik

Biosensoren sollen fit gemacht werden, damit wir mobil die körperliche Verfassung von Personen ermitteln können. Das ist gerade für Projekte interessant, die Wahrnehmung oder Körperreaktion untersuchen: Stichwort Companion. Auch hier wäre Machine Learning denkbar, um die unterschiedlichen Sensordaten auszuwerten und so bestimmte Zustände zu erkennen.

Siehe auch: https://csti.haw-hamburg.de/project/ein-intelligenter-spiegel-als-companion-system/

Flexibles Indoor Positioning (Tracking)

Für Objekt-Tracking benutzen wir entweder das HTC Lighthouse oder das A.R.T. Das ist bei uns im //CSTI leider sehr stark an der Traverse gebunden. Eine flexible, mobile Lösung ist gesucht, hierzu gäbe es verschiedene Möglichkeiten: z. B. kamerabasiert oder funkbasiert (RFID, iBeacon). Die besten Ergebnisse lassen sich in der Regel durch Sensorfusion erzielen, d.h. die Daten aus mehreren Quellen werden ausgewertet und daraus wird das Ergebnis berechnet (eventuell durch Machine Learning unterstützt).

Das mobile Pflanzenkabarett

Tatsache ist, dass Pflanzen im //CSTI grundsätzlich sprechen. Aber was wäre, wenn sie anfangen, sich miteinander zu unterhalten? Vielleicht reagieren sie auf Abstand zu einander? Die eine Pflanze wird traurig und depressiv, wenn sie von den anderen getrennt wird. Die andere Pflanze wiederum wird aggro, wenn sie nur eine der anderen Pflanzen zu Gesicht bekommt. Die Pflanzen sollen mit Sensorik und Intelligenz ausgestattet werden, um ihnen so ein zusätzliches virtuelles Leben einzuhauchen.

Skelett-Tracking mit mehreren Kinects: Sensor-Fusion

Die Kinect lässt sich super einsetzen, um 3D-Gesten zu erkennen, aber nur solange der Anwender direkt davor steht und von nichts verdeckt wird. Das Problem ließe sich durch Sensor Fusion über mehrere Kinects lösen. 

Siehe auch: Fusion von Kinect and Leap Motion: http://delivery.acm.org/10.1145/2630000/2620710/a22-penelle.pdf 

Beschleunigung und Lage mobil erfassen (Platinendesign)

Ein häufiger Bedarf ist, eigene Controller zum Ansteuern von Irgendwas zu bauen. Hierzu wird regelmäßig ein Beschleunigungssensor benötigt. Es soll auf Grundlage des ESP32 ein Template erstellt werden, dass die zukünftige Entwicklung solcher Projekte erleichtert.