1. Laborlayout
ErgoHCI Mensch-Computer-InteraktionslaborEs ist unterteilt in einen Hauptraum und mehrere Prüfräume. Der Hauptraum ist mit der ErgoLAB-Plattform für mehrdimensionale Datenanalyse und künstliche Intelligenz ausgestattet. Der Testraum ist je nach den Anforderungen der Testumgebung in Verhaltensbeobachtungs-Testraum, Virtual-Reality-Testraum, Fahrsimulationstestraum und Umweltsimulationstestraum unterteilt und verfügt über die ErgoHCI Multi-Channel-Plattform für Mensch-Computer-Interaktion und die ErgoLAB-Plattform für mehrdimensionale synchrone Datenerfassung.
Das ErgoHCI-Mensch-Computer-Interaktionslabor besteht aus dem ErgoHCI-Mehrkanal-Intelligenten Mensch-Computer-Interaktionssystem und dem ErgoLAB-Messsystem für die Mensch-Computer-Interaktion. ErgoHCI Multi-Channel Intelligent Human-Computer Interaction System kann die Multi-Channel-Mensch-Computer-Interaktion in die Testaufgaben und Testprozesse des Produkts integrieren, einschließlich neuer Arten von Sprache, Augensteuerung, Gesten, Gehirn-Computer, Emotionen und anderen Interaktionen sowie herkömmlicher Tasten, Mausen, Touchscreens und Griffe, um die Steuerung von Produkten und Prototypen durch die Multi-Channel-Mensch-Computer-Interaktion zu erreichen.
ErgoLAB kann mehrdimensionale objektive Daten des Bedieners während der Interaktion mit intelligenten Geräten synchron erfassen, einschließlich Augenbewegungen, Physiologie, Elektro-Gehirn, Gehirnbildgebung, Verhalten, Interaktion, Bewegungsgesten, Umweltdaten usw. und die Signalverarbeitung und statistische Analyse durchführen, um die Messung der Mensch-Computer-Interaktion durch objektive Datenindikatoren abzuschließen.