e-Learning Support
Projektplenum: 04-V07-STP-2517 Evaluierung neuer Technologien für visuelle Inspektion - Details

Projektplenum: 04-V07-STP-2517 Evaluierung neuer Technologien für visuelle Inspektion - Details

Sie sind nicht in Stud.IP angemeldet.

Allgemeine Informationen

Veranstaltungsname Projektplenum: 04-V07-STP-2517 Evaluierung neuer Technologien für visuelle Inspektion
Untertitel
Veranstaltungsnummer 04-V07-STP-2517
Semester SoSe 2025 - WiSe 2025/2026
Aktuelle Anzahl der Teilnehmenden 0
erwartete Teilnehmendenanzahl 5
Heimat-Einrichtung B.Sc. Systems Engineering
Veranstaltungstyp Projektplenum in der Kategorie Lehre
Art/Form Lehrprojekt
Englischsprachige Veranstaltung Nein
ECTS-Punkte 15 bzw. 17 (je nach Modul)

Räume und Zeiten

Kommentar/Beschreibung

Anmeldung im Stud.IP bis: 30.04.
Projektauftakt am: 12.05.
max. Gruppengröße: 5
Ansprechperson: Dirk Schweers, ser@biba.uni-bremen.de

Im Rahmen dieses Lehrprojekts soll die Funktionsweise eines bestehenden kognitiven Assistenzsystems für die Werkerführung analysiert werden. Auf Basis dieser Analyse werden Alternativen zu zentralen Systemkomponenten ermittelt und priorisiert. Anschließend sollen ausgewählte Elemente gezielt überarbeitet werden. Ziel ist es, die Leistungsfähigkeit des Systems durch den Einsatz moderner Technologien zu verbessern und neue Ansätze für die visuelle Inspektion zu evaluieren. Die Projektinhalte sind breit gefächert, sodass Studierende mit unterschiedlichen Kenntnisständen und Workloads aktiv mitwirken können.
Mögliche Projektinhalte:
1. Systemanalyse und Bestandsaufnahme
o Untersuchung der bestehenden Systemarchitektur und der eingesetzten Technologien.
o Analyse der aktuellen Methoden zur Objekterkennung und Handgestenerkennung.
2. Evaluation alternativer Kameratechnologien
o Vergleich verschiedener Sensortechnologien hinsichtlich Auflösung, Lichtempfindlichkeit und Eignung für den Einsatz im Assistenzsystem.
o Untersuchung der Integration neuer Kamera- und Sensormodule in das bestehende System.
3. Optimierung der Methoden zur Objekterkennung und Handgestenerkennung
o Überprüfung bestehender Algorithmen auf Genauigkeit, Robustheit und Echtzeitfähigkeit.
o Implementierung und Test alternativer Verfahren, z. B. tiefenlernbasierter Methoden oder hybrider Ansätze.
4. Einsatz neuer Algorithmen und visueller LLMs
o Analyse des Potenzials großskaliger visueller Sprachmodelle (LLMs) für die Bild- und Gesteninterpretation.
o Untersuchung, inwiefern multimodale Modelle zur Verbesserung der Assistenzfunktionen beitragen können.

Anmeldemodus

Die Auswahl der Teilnehmenden wird nach der Eintragung manuell vorgenommen.

Nutzer/-innen, die sich für diese Veranstaltung eintragen möchten, erhalten nähere Hinweise und können sich dann noch gegen eine Teilnahme entscheiden.