Information

Neuronale Roboter vs. konventionelle Roboter

Neuronale Roboter vs. konventionelle Roboter



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Mein Freund arbeitet an einem Roboter, der gedankengesteuert werden kann.

Er trägt im Grunde ein Headset, und dieses Headset übersetzt das Gehirnsignal in ein Steuersignal, um einen Roboter zu bewegen. https://www.youtube.com/watch?v=XewJh_0nLvM

Was könnte der potenzielle Vorteil dieser Art von Robotern gegenüber ferngesteuerten Robotern sein (99,99% aller Roboter heutzutage)?


Der Vorteil (nach aktuellem Stand der Technik) besteht darin, dass man mit den Händen keine Fernbedienung benutzen muss, sodass Gelähmte beispielsweise ihre Exoskelette bewegen können. Im Moment gibt es noch den Nachteil, dass das Gerät trainiert werden muss und die Befehle, die gelesen werden können, eher simpel sind. In Zukunft werden diese Gerätetypen jedoch die Interaktion zwischen Mensch und Computer erheblich verbessern, indem sie dem Gehirn ermöglichen, auf die gleiche Weise zu kommunizieren, wie es auf natürliche Weise mit der Umgebung kommuniziert. Sich vorzustellen, wie sich der Roboter bewegt (und der Roboter Ihren vorgestellten Bewegungen folgt) ist also viel flüssiger, intuitiver und präziser als das Drücken einer Reihe von Knöpfen! Die Technologie muss jedoch noch in dieses Stadium gelangen.


MEINUNG Artikel

  • 1 Research Unit on Theory of Mind, Department of Psychology, Università Cattolica del Sacro Cuore, Mailand, Italien
  • 2 Humane Technology Lab, Università Cattolica del Sacro Cuore, Mailand, Italien
  • 3 Fachbereich Psychologie, Università Cattolica del Sacro Cuore, Mailand, Italien
  • 4 DISEIS, Department of International Economics, Institutions and Development, Universitá Cattolica del Sacro Cuore, Mailand, Italien
  • 5 CSCC, Cognitive Science and Communication Research Center, Universitá Cattolica del Sacro Cuore, Mailand, Italien
  • 6 Labor für Angewandte Technologie für Neuropsychologie, Istituto Auxologico Italiano, Mailand, Italien

Die Wirksamkeit von sozialen Robotern wurde in verschiedenen Kontexten des täglichen Lebens des Menschen weithin anerkannt, aber noch ist wenig über die Gehirnbereiche bekannt, die durch die Beobachtung oder Interaktion mit einem Roboter aktiviert werden. Forschung, die Neurowissenschaften, Kognitionswissenschaften und Robotik kombiniert, kann neue Einblicke in die Funktionsweise unseres Gehirns und die Implementierung von Robotern liefern. Verhaltensstudien an sozialen Robotern haben gezeigt, dass die soziale Wahrnehmung von Robotern von mindestens zwei Faktoren beeinflusst wird: physisches Erscheinungsbild und Verhalten (Marchetti et al., 2018). Wie können die Neurowissenschaften solche Erkenntnisse erklären? Bis heute wurden Studien mit EEG- und fMRI-Techniken durchgeführt, um die Hirnareale zu untersuchen, die an der Mensch-Roboter-Interaktion beteiligt sind. Diese Studien befassten sich hauptsächlich mit Gehirnaktivierungen als Reaktion auf Paradigmen, die entweder eine Handlungsleistung beinhalten oder eine emotionale Komponente beinhalten (Abbildung 1).

ABBILDUNG 1. Roboter können das menschliche Gehirn aktivieren.

Eine erste Reihe von Studien analysierte die Wirkung verschiedener Robotertypen, die sich in ihrem physischen Anthropomorphismus auf die Aktivierung des Mirror Neuron Mechanism (MNM) unterscheiden. Die durch fMRI untersuchten neuronalen Aktivitäten zeigten, dass die Aktivierung des medialen prämotorischen Kortex (MPFC) linear über den Grad der Menschenähnlichkeit der Roboter zunahm, von den mechanischsten zu den androiden (Krach et al., 2008). Elektroenzephalographie (EEG)-Daten, die mit der mu-Welle in Verbindung mit dem MNM verbunden sind, zeigten eine Modulation des mu-Rhythmus als Funktion der Ähnlichkeit des Roboters mit dem Menschen (Urgen et al., 2013 Matsuda et al., 2016). Darüber hinaus zeigten die fMRT-Befunde zu MNM, dass der prämotorische Kortex in ähnlicher Weise aktiviert wird, wenn Aktionen von verschiedenen Robotertypen (mehr mechanisch oder android) ausgeführt werden (Saygin et al., 2012).

Diese Beweise stützen die Hypothese, dass der prämotorische Kortex 𠇊utomatisch” als Reaktion auf sowohl einfache als auch komplexe zielgerichtete und beabsichtigte Aktionen ausgelöst wird, was eine Sensibilität sowohl für den lebenden als auch für den nicht lebenden ontologischen Status des Agenten offenbart (Gazzola et al ., 2007 Saygin et al., 2012). Eine Aktivierung des prämotorischen Kortex wurde auch als Reaktion auf ein menschliches oder robotisches Gesicht gefunden, das Emotionen ausdrückte (Chaminade et al., 2010). Mehrere Studien am Menschen haben ergeben, dass der prämotorische Kortex am Prozess der Emotionserkennung beteiligt ist, indem er das motorische Muster (d. h. den Gesichtsausdruck) kodiert, das einen bestimmten emotionalen Zustand charakterisiert. Die im prämotorischen Kortex verarbeiteten visuomotorischen Informationen werden durch die Insel, die als Relaisstation zwischen den kortikalen und subkortikalen Bereichen fungiert, wie der Amygdala, die an der Verarbeitung emotionaler Reize beteiligt sind, in affektive Informationen übersetzt (z. B. Carr et al., 2003 Wicker et al., 2003 Iacoboni, 2009). Ebenso hat sich das parieto-präfrontale Netzwerk, das das MNM charakterisiert, als besonders empfindlich gegenüber biologischen Bewegungen erwiesen (z. B. Dayan et al., 2007 Casile et al., 2009 Di Dio et al., 2013). Dementsprechend wurde gezeigt, dass die Beobachtung eines motorischen oder emotionalen Verhaltens eines menschenähnlichen Roboteragenten, der der menschlichen Kinematik ähnelt, ausreichen kann, um MNM zu aktivieren (Gazzola et al., 2007 Chaminade et al., 2010). Auch die Untersuchung der vitalen Bewegungsformen, die den Stil einer Handlung charakterisieren (z.B. unhöflich vs. sanft) (Stern, 1985, Stern, 2010) wurde gezeigt, dass Vitalitätsformen neben der Aktivierung des MNM auch den dorso-zentralen Inselkortex aktivieren (Di Dio et al., 2013 Di Cesare et al., 2016) , die das Relais darstellt, durch das Informationen über den Aktionsstil (dh die Aktionskinematik), die im parietalen MNM verarbeitet werden, mit einer affektiven Qualität versehen werden. Am wichtigsten ist, dass neuste neurowissenschaftliche Beweise gezeigt haben, dass dieselben Hirnareale, deren Aktivierung durch menschliche Vitalitätsformen stimuliert wird, auch durch Roboteraktionen hervorgerufen werden können, die durch Simulation der menschlichen Kinematik ausgeführt werden (Di Cesare et al., 2020), wodurch Informationen über Der 𠇎motion state” des Roboters’.

Allerdings kann die Aktivierung anderer Hirnareale neben dem MNM erforderlich sein, wie z vs. komplexe zielgerichtete Aktionen (Gazzola et al., 2007). In ähnlicher Weise zeigten fMRT-Daten eine stärkere Aktivierung des hinteren okzipitalen und temporalen visuellen Kortex als Reaktion auf den Gesichtsausdruck von Roboteremotionen im Vergleich zu menschlichen Emotionen, was eine weitere Verarbeitungsebene als Reaktion auf den unbekannten Stimulus (dh das Gesicht des Roboters) widerspiegelt ( Chaminade et al., 2010 Jung et al., 2016). Darüber hinaus ist der Anstieg der frontalen Theta-Aktivität in Verbindung mit der Erholung aus dem Langzeitgedächtnis, gemessen durch EEG, bei einem mechanischen Roboter größer als bei einem Menschen oder Android (Urgen et al., 2013), was einmal mehr die Beteiligung einer Kompensation unterstreicht Verfahren zur Analyse von Roboterstimuli. Genauer gesagt deutet dieses Ergebnis darauf hin, dass ein geringeres Maß an Anthropomorphismus von physischen Robotern mehr Ressourcen von Speichersystemen erfordert, um die semantische Lücke zwischen dem Agenten und seiner Aktion zu schließen (Urgen et al., 2013).

Das Zugehörigkeitsgefühl der Menschen zu einem Roboter während der Interaktionen wird zumindest teilweise durch die emotionalen Reaktionen auf das Verhalten des Roboters erklärt. Noch wenige Studien haben die Gehirnaktivierung als Reaktion auf die von Robotern ausgedrückten Emotionen analysiert. EEG-Daten legen nahe, dass Menschen die von einem Roboter ausgedrückten körperlichen Emotionen, einschließlich Freude und Traurigkeit, erkennen können, obwohl nicht alle ausgedrückten Emotionen beim Betrachter eine signifikante Gehirnreaktion auslösen (Guo et al., 2019). Darüber hinaus weisen auch fMRT-Daten darauf hin, dass emotionale Ausdrücke (d. h. Freude, Wut und Ekel) von einem menschlichen Gesicht als emotionaler wahrgenommen werden als von einem Roboter (Chaminade et al., 2010). Wie oben argumentiert, könnten diese Unterschiede durch eine nicht perfekte Ausrichtung zwischen der Roboter- und der menschlichen Kinematik erklärt werden, die die emotionale Qualität der Bewegung ausdrückt.

Zusätzliche Studien hatten neuronale Aktivierungsmuster im Zusammenhang mit emotionalen Reaktionen untersucht, wenn Menschen einen Roboter oder einen Menschen in eine gewalttätige Situation hinein beobachten. Die fMRT-Daten zeigten keine Unterschiede in den Aktivierungsmustern in Bereichen emotionaler Resonanz, wenn ein Mensch oder Roboter eine gewalttätige Handlung erlebte (Rosenthal-von der Pütten et al., 2014).

Suzuki et al., (2015) fanden eine ähnliche Gehirnreaktion, die durch EEG gemessen wurde, wenn Bilder beobachtet wurden, die entweder einen Finger einer Roboterhand oder eine menschliche Hand zeigten, die mit einer Schere geschnitten wurde. Insbesondere fanden die Autoren eine verstärkte neuronale Reaktion in der aufsteigenden Phase (dh 350� ms nach Reizbeginn) der P3-Komponente an den frontal-zentralen Elektroden durch schmerzhafte menschliche Reize, aber nicht durch schmerzhafte Roboterreize, obwohl der Unterschied war nur marginal dagegen fanden sich keine Unterschiede bei der Empathie gegenüber Mensch und Roboter in der absteigenden Phase von P3 (dh 500� ms nach Reizbeginn). Basierend auf diesen Ergebnissen schlagen die Autoren vor, dass die Menschlichkeit des beobachteten Agenten (Mensch vs. Roboter) moduliert teilweise die von oben nach unten kontrollierten Prozesse der Empathie für Schmerzen (Suzuki et al., 2015), möglicherweise auch aufgrund einer größeren Schwierigkeit, die Roboterperspektive einzunehmen als die menschliche (Suzuki et al., 2015) . In diesem Zusammenhang ist es wichtig zu betonen, dass diese bahnbrechenden Studien zur Empathie sowohl in Bezug auf die angewandten Techniken als auch die verwendeten Stimuli sehr heterogen sind, die sowohl in Bezug auf die Art des Roboteragenten als auch auf das experimentelle Paradigma stark variieren.

Zusammenfassend lässt sich sagen, dass unsere Gehirnsysteme auf die Beobachtung experimenteller Bedingungen, die die Aktionen eines Roboters mit biologischer oder semi-biologischer Dynamik beinhalten, in einer ȁkörperlichen” Weise reagieren. Wir vermuten jedoch, dass dieser Effekt nur vorübergehend oder auf experimentelle Einstellungen beschränkt ist. Unsere Überlegung wird durch die Ergebnisse von Cross und Kollegen (Cross et al., 2019) gestützt, die darauf hindeuten, dass eine Phase der realen Interaktion mit einem sozialen Roboter seinen ontologischen Status eindeutig machen kann, wodurch der Roboter in der “non-living category” . neu positioniert wird . Dies kann plausibel durch die Aktivierung von kognitiven Top-Down-Mechanismen erklärt werden, die die Aktivität unseres Gehirns regulieren und die Unterschiede zwischen der Reaktion des Gehirns auf den Menschen hervorheben vs. Roboterreize. Mit anderen Worten, die automatische Aktivierung verkörperter Mechanismen, die durch das MNM vermittelt wird, wenn wir einen Roboter beobachten, der Aktionen ausführt oder bestimmte menschenähnliche emotionale Zustände (z. auch angesichts unserer natürlichen Tendenz, viele verschiedene Entitäten zu vermenschlichen. Vorherige Erfahrungen mit den tatsächlichen physischen und psychischen Grenzen des Roboters bieten uns andererseits einen kontextuellen Bezugsrahmen, bei dem Top-Down-Prozesse die Reaktion automatischer Mechanismen modulieren oder hemmen (Paetzel et al., 2020 Rossi et al.) ., 2020). Zusammenfassend lässt sich sagen, dass, obwohl weitere Studien notwendig sind, das Ausmaß des physischen Anthropomorphismus, die Art und Kinematik der von Robotern ausgeführten Aktionen gemeinsam die sozialen Hirnareale aktivieren und folglich die Wahrnehmung von Robotern als Sozialpartner erhöhen. Auch der Einsatz zusätzlicher Techniken wie Virtual Reality könnte sich in dieser Hinsicht als effektiv erweisen (Riva et al., 2018 Riva et al., 2019)


Materialen und Methoden

Stichprobe

Einhundertsechs italienische Muttersprachler mit unterschiedlichem sozialem und Bildungshintergrund (siehe Tabelle 1 für demografische Details) haben unseren InStance-Fragebogen ausgefüllt. Die Datenerhebung wurde gemäß den ethischen Standards des Ethikkodex des Weltärztebundes (Erklärung von Helsinki) durchgeführt, die Verfahren wurden von der regionalen Ethikkommission (Comitato Etico Regione Liguria) genehmigt.

Tabelle 1. Demografische Angaben zur Stichprobe (N = 106).

Fragebögen

InStance-Fragebogen (ISQ)

Jedes Item von ISQ bestand aus einem Szenario und zwei Sätzen mit einer bipolaren Skala und einem Schieberegler zwischen den beiden Sätzen (einer der Sätze war links und der andere rechts auf der Skala positioniert), siehe Abbildung 1 zum Beispiel. Eine vollständige Liste der im Fragebogen enthaltenen Bilder und Sätze finden Sie im Zusatzmaterial (englische Version) oder unter folgendem Link (für englische und italienische Version): https://instanceproject.eu/publications/rep.

Abbildung 1. Screenshot aus dem InStance-Fragebogen auf Englisch.

Wir haben 34 Szenarien erstellt, in denen der iCub-Roboter mit Objekten und/oder Menschen interagiert. Jedes Szenario bestand aus drei Bildern (Größe 800 × 173,2 Pixel). Von den 34 Szenarien beinhalteten 13 einen (oder mehrere) Mensch, der mit dem Roboter interagierte 1 Szenario zeigte einen menschlichen Arm, der auf ein Objekt zeigte 20 Szenarien zeigten nur den iCub-Roboter. Zehn Szenarien enthielten digital bearbeitete Bilder (Adobe Photoshop CC 2018). Die in den Szenarien dargestellten Aktionsarten von iCub waren: Greifen, Zeigen, Blicken und Kopfbewegungen.

Jedes Item beinhaltete zusätzlich zum Szenario zwei Sätze. Einer der Sätze erklärte immer das Verhalten von iCub in Bezug auf die Designhaltung (d. h. mechanistische Erklärung), während der andere immer das Verhalten von iCub in Bezug auf mentale Zustände beschrieb (d. h. mentalistische Erklärung). Mentalistische und mechanistische Sätze tauchten mit gleicher Wahrscheinlichkeit entweder auf der linken oder rechten Seite der Skala auf, da die Zuordnung zwischen Satztyp und Position über die Items hinweg ausgeglichen wurde. Darüber hinaus haben wir den emotionalen Ausdruck von iCub über die Szenarien hinweg konstant gehalten, um eine Voreingenommenheit gegenüber mentalistischen Erklärungen zu vermeiden.

Um sicher zu gehen, dass die Sätze die Handlung mechanistisch oder mentalistisch beschreiben, haben wir vor der Datenerfassung die Sätze (nur Sätze ohne zugehörige Bilder) an 14 Freiwillige mit einem Abschluss in Philosophie (alle Italienisch Muttersprachler), um auf einer 10-Punkte-Likert-Skala zu bewerten, wie sehr sie jeden Satz als mechanistisch oder mentalistisch verstanden (0 = total mechanistisch, 10 = total mentalistisch). Da mit den Sätzen kein Szenario präsentiert wurde, wurden die Bewerter nicht darüber informiert, dass die Sätze erstellt wurden, um das Verhalten eines humanoiden Roboters zu beschreiben. Darüber hinaus wurde der Betreff jedes Satzes als allgemeiner 𠇊gent A” benannt, um jegliche Verzerrung durch den Namen des Roboters zu vermeiden. Die durchschnittliche Punktzahl betrug 8,2 für die mentalistischen Sätze und 4,3 für die mechanistischen Sätze. Basierend auf den Antworten in dieser Umfrage haben wir die Sätze modifiziert, die nicht unserer Absicht entsprachen. Insbesondere haben wir Sätze modifiziert, die eine durchschnittliche Punktzahl zwischen 4 und 5 erreichten (was bedeutet, dass sie nicht eindeutig als mechanistisch oder mentalistisch bewertet wurden) und als Cut-off 4,3 verwendet, da die meisten kritischen Sätze aus der mechanistischen Gruppe stammten (14 von 15 Sätze). Wir haben 15 der 35 anfänglichen Satzpaare modifiziert, um unserer beabsichtigten Beschreibung (mentalistisch oder mechanistisch) zu entsprechen.

Andere Fragebögen

Zusätzlich zum InStance-Fragebogen haben wir die italienische Version des Reading the Mind in the Eyes (Baron-Cohen et al., 1999, 2001, Serafin und Surian, 2004) und die ToM-Subskala des Fragebogens von Völlm et al al. (2006). Diese Tests wurden als Kontrolle verwendet, um Ausreißer in ToM-Fähigkeiten zu überprüfen.

Den Geist in den Augen lesen

Der Reading the Mind in the Eyes-Test wurde von Baron-Cohen et al. (1999, 2001), um die Fähigkeit zu testen, auf die mentalen Zustände anderer zu schließen, indem man nur in die Augen anderer schaut. In diesem Fragebogen werden die Teilnehmer gebeten, sich 36 Fotos der Augen von Personen anzusehen. Unter den Fotografien der Augen werden vier Adjektive vorgestellt. Die Teilnehmer werden gebeten, ein Adjektiv auszuwählen, das das Foto, das sie betrachten, am besten beschreibt. Wir haben diesen Test ausgewählt, da er einer der am häufigsten verwendeten Tests zur Messung der ToM-Fähigkeiten ist.

Ein Test von Völlm et al. (2006)

Völlm et al. (2006) einen Fragebogen entwickelt, um die neuronalen Korrelate von ToM und Empathie in einer fMRT-Studie zu evaluieren. Bei diesem Test handelt es sich bei den präsentierten Stimuli um nonverbale Cartoon-Streifen aus drei Frames: Die Teilnehmer werden angewiesen, sich die Streifen anzusehen und den Frame auszuwählen, der ihrer Meinung nach die dargestellte Geschichte am besten abschließt. Für die Zwecke dieser Studie haben wir nur die 10 Items präsentiert, die in der ToM-Subskala des Tests enthalten sind. Wir haben diesen Test als nonverbalen Test der Mentalisierungsfähigkeiten ausgewählt, der den Den Geist in den Augen lesen Prüfung.

Datenerfassung für den InStance-Fragebogen

Alle Fragebögen wurden über die SoSci-Umfrage 1 verwaltet. Die Teilnehmer erhielten die URL-Adressen aller Fragebögen. Die Teilnehmer wurden gebeten, die Fragebögen in der angegebenen Reihenfolge auszufüllen: ein allgemeiner Informationsfragebogen, ISQ, The Mind in the Eyes und schließlich der Völlm et al. (2006) Fragebogen. Der allgemeine Informationsfragebogen sammelte demografische Informationen der Teilnehmer (siehe Tabelle 1) und ob sie mit Robotern vertraut waren oder nicht (siehe ergänzendes Material). Der ISQ bestand aus 34 Items und 1 Beispielitem. Es wurde jeweils nur ein Item präsentiert (vgl. Abbildung 1).

In jedem Item wurden die Teilnehmer explizit angewiesen, einen Schieberegler auf einer bipolaren Skala in Richtung des Satzes zu bewegen, der ihrer Meinung nach eine plausiblere Beschreibung der im Szenario dargestellten Geschichte war. Wie in Abbildung 1 dargestellt, wurden die beiden Aussagen (mentalistisch und mechanistisch) an den beiden Skalengrenzen platziert. Der Cursor wurde anfangs immer in der Mitte der Skala (d. h. dem Nullwert) platziert. Bei 50% der Items wurde der mechanistische Satz auf der linken Seite des Schiebereglers präsentiert, während der mentalistische auf der rechten Seite präsentiert wurde. Bei den anderen 50 % wurde die Position der mechanistischen und mentalistischen Sätze vertauscht. Die Reihenfolge der Präsentation der Items war randomisiert.

Datenanalyse und Ergebnisse

Alle statistischen Analysen wurden in R (Version 3.4.0, verfügbar unter http://www.rproject.org) durchgeführt.

Die Datenanalyse wurde an einer Stichprobe durchgeführt, die Antworten von 106 Teilnehmern umfasste. Für jeden Teilnehmer berechneten wir die InStance-Score (ISS). Zu diesem Zweck haben wir die bipolare Skala in eine 0�-Skala umgewandelt, wobei 0 einer vollständig mechanistischen und 100 einer vollständig mentalistischen Erklärung entsprach. Der Nullwert der Skala, d. h. die Startposition des Schiebereglers, die von beiden Grenzen gleich weit entfernt war, entsprach der 50. Der ISS-Score wurde als Durchschnittswert aller Fragen berechnet. Werte unter 50 bedeuteten, dass die Antwort mechanistisch war, Werte über 50 bedeuteten, dass sie ‘mentalistisch waren.’

Die durchschnittliche Gesamtpunktzahl für den ISQ betrug 40,73 (wobei 0 die mechanistischste Punktzahl und 100 die mentalistischste Punktzahl anzeigt). Mit dem Shapiro–Wilk-Test haben wir die Verteilung der ISS auf Normalität getestet. Die Ergebnisse zeigten, dass die durchschnittliche ISS normal verteilt war, W = 0.99, P > 0,05. Wir analysierten die Werte jedes Items des ISQ auf Ausreißer, Werte, die außerhalb des Interquartilbereichs von 1,5 ∗ liegen (IQR, die Differenz zwischen dem 75. und 25. Quartil) und fanden kein Ausreißer-Item. Um zu vergleichen, ob sich die durchschnittliche ISS signifikant von einem vollständig mechanistischen Bias unterscheidet, führen wir eine Stichprobe durch T-Tests gegen einen kritischen Wert von 0 (d. h. der Wert, der einer mechanistischen Bindung entspricht). Die Ergebnisse zeigten, dass sich die durchschnittliche ISS signifikant von 0, T(105) = 28.80, P < 0,0001.

Die durchschnittlichen ISS für jedes Item sind in Tabelle 2 zusammengefasst, die ISS-Verteilung der einzelnen Durchschnitte ist in Abbildung 2 dargestellt. Zwei Szenarien mit den höchsten Werten in mentalistischen Beschreibungen (78,16 bzw die meisten mechanistischen Scores (10,07 bzw. 11,97 im Durchschnitt) sind in Abbildung 4 dargestellt.

Tabelle 2. Durchschnittliche Punktzahl und Standardabweichung für jedes Item des ISQ (n = 106).


Eine vergleichende Studie von konventioneller Physiotherapie und robotergestütztem Gangtraining in Verbindung mit Physiotherapie bei Personen mit Ataxie nach Schlaganfall

Ziele. Untersuchung des Einflusses von RAGT auf Gleichgewicht, Koordination und funktionelle Unabhängigkeit bei Aktivitäten des täglichen Lebens von Überlebenden eines chronischen Schlaganfalls mit Ataxie nach mindestens einem Jahr Verletzung. Methoden. Es war eine randomisierte kontrollierte Studie. Die Patienten wurden entweder dem therapeutisch unterstützten Gangtraining (TAGT) oder dem robotergestützten Gangtraining (RAGT) zugeteilt. Beide Gruppen erhielten 3 wöchentliche Physiotherapiesitzungen mit einer geschätzten Dauer von jeweils 60 Minuten und verordneten Heimübungen. Die folgenden Ergebnismaße wurden vor und nach Abschluss der 5-monatigen Protokollbehandlung bewertet: BBS, TUG-Test, FIM und SARA. Für gruppeninterne Vergleiche wurde der Wilcoxon-Test und für den Zwischengruppenvergleich der Mann-Whitney-Test verwendet. Ergebnisse. Neunzehn Schlaganfall-Überlebende mit Ataxie-Folge nach einem Jahr Verletzung wurden rekrutiert. Beide Gruppen zeigten eine statistisch signifikante Verbesserung (

) im Gleichgewicht, funktioneller Unabhängigkeit und allgemeinen Ataxie-Symptomen. Es gab keine statistisch signifikanten Unterschiede ( ) für Vergleiche zwischen den Gruppen sowohl zu Studienbeginn als auch nach Abschluss des Protokolls. Schlussfolgerungen. Chronische Schlaganfallpatienten mit Ataxie zeigten nach RAGT zusammen mit konventioneller Therapie und Heimübungen eine signifikante Verbesserung des Gleichgewichts und der Unabhängigkeit bei Aktivitäten des täglichen Lebens. Diese Studie wurde mit der Studienregistrierungsnummer 39862414.6.0000.5505 registriert.

1. Einleitung

Der Schlaganfall ist die dritthäufigste Todesursache und der größte Faktor für Behinderungen bei Erwachsenen in Entwicklungsländern, gleich hinter Krebs und Herzerkrankungen [1]. In den USA ereignen sich jährlich etwa 795.000 Schlaganfälle [2] mit 2-3% im Kleinhirnbereich [3]. Der Verlust motorischer Fähigkeiten ist eine der häufigsten Beschwerden von Schlaganfallpatienten, da etwa 75 % dieser Patienten eine Gehbehinderung haben, die zu einem hohen Sturzrisiko führen kann [4, 5]. In einer prospektiven Studie wurden 256 Schlaganfallpatienten in der Akutphase ausgewertet, wobei ca. 27 % innerhalb von drei Monaten mindestens einen Sturz berichteten [6].

Eine Beeinträchtigung der hinteren Durchblutung, die das Kleinhirn oder die Hirnstammregion betrifft, kann zu Schäden in mehreren wichtigen Funktionen wie Gleichgewicht, Bewegungskoordination, Sprache, Hören, Augenbewegung und Schlucken führen [7, 8]. Ataxie ist eine wichtige Folgeerkrankung, die als Koordinationsverlust, Dysmetrie, Dysarthrie, Hypotonie, Rebound-Phänomen und Nystagmus beobachtet und anerkannt wird [9]. Die Gangataxie wird durch ein stolperndes Gehmuster, eine unregelmäßige Fußstellung, einen erhöhten Schritt, einen vergrößerten Stand und ein abnormales Gelenkdrehmoment beschrieben [10, 11].

Wenn die Erschöpfung der Gleichgewichtsfähigkeit mit verminderter Gelenkbeweglichkeit, Muskeltonusproblemen und Verlust der Propriozeption einhergeht, steigt die Schwierigkeit, Aktivitäten des täglichen Lebens für Menschen mit Schlaganfall zu verrichten [12]. Daher ist ein Gleichgewichtstraining für die Rehabilitationsbehandlung von entscheidender Bedeutung. Konventionelle Gangtherapie (CGT) wie das Bobath-Konzept, propriozeptive neuromuskuläre Fazilitation, therapeutengestütztes Gehen und die Verwendung von Zahnspangen oder anderen Hilfsmitteln sind gängige Behandlungsansätze [13]. Darüber hinaus können Schlaganfallpatienten mit hohem Schweregrad und schlechter Gehkoordination von einer Behandlung mit einem Robotergerät profitieren, das ein aufgabenorientiertes Training ermöglicht [14].

Robotergestütztes Gangtraining (RAGT) wird seit 1980 eingesetzt, um Patienten mit Bewegungsstörungen durch neurologische Störungen zu unterstützen [15]. Diese Behandlung basiert auf dem Body Weight-Supported Tretmill (BWSTT)-Prinzip und erreicht ein funktionelles motorisches Wiedererlernen durch das repetitive Üben aller unterschiedlichen Gangphasen [16]. Das wiederholte Training derselben Bewegung ermöglicht es dem Nervensystem, Schaltkreise für eine bessere Kommunikation zwischen dem motorischen Zentrum und den sensorischen Bahnen zu entwickeln [17].

Die Behandlung mit RAGT bietet gegenüber der konventionellen Behandlung auf dem Laufband Vorteile wie Trainingsdauer, reproduzierbarere symmetrische Gangbilder, Bedienung durch einen einzelnen Therapeuten und eine Reduzierung des Kraftaufwands für den Therapeuten [18]. Darüber hinaus ergaben neuere Untersuchungen, dass das robotergestützte Laufbandtraining bei paretischen Patienten zu einem symmetrischeren Muskelaktivitätsmuster im Vergleich zur konventionellen Behandlung führte [5]. Es ist wichtig hervorzuheben, dass es nur sehr wenige Untersuchungen zu RAGT bei Personen mit Ataxie nach einem Schlaganfall gab.

Ein systematischer Review zur Wirksamkeit von Rehabilitationsrobotik für das Gehtraining bei neurologischen Erkrankungen zeigte, dass Patienten mit Schlaganfall eine statistisch signifikante Verbesserung der Gehgeschwindigkeit, funktionellen Fähigkeiten und motorischen Funktionen nach der Behandlung aufwiesen [19]. Eine Studie, die Laufbandtraining mit Teilkörpergewichtsunterstützung und Robotertraining verglich, zeigte jedoch, dass die Therapie mit Teilkörpergewichtsunterstützung dem Robotertraining bei Patienten mit chronischem Schlaganfall überlegen war [20].

Einer der möglichen Nachteile der Behandlung mit RAGT kann die übermäßige passive Führung des Geräts sein, die möglicherweise den Aufwand des Patienten und die Wirksamkeit der Behandlung verringern könnte [21]. Darüber hinaus ist ein weiterer wichtiger Faktor der eingeschränkte Freiheitsgrad der Patienten mit der Ausrüstung, der zu abnormalen Drehmomenten führen kann [18].

Angesichts der kritischen Bedeutung des Themas sowie des Mangels und der nicht schlüssigen Informationen darüber hatte diese Studie das Ziel, den Einfluss von robotergestütztem Gangtraining auf Gleichgewicht und Koordination zu bewerten und die funktionelle Unabhängigkeit bei Aktivitäten des täglichen Lebens von Überlebenden eines chronischen Schlaganfalls zu überprüfen mit Ataxie nach mindestens einem Jahr Verletzung.

2. Methoden

2.1. Themen

Dies war eine randomisierte kontrollierte Studie, die von der Ethikkommission der Universidade Federal do Estado de São Paulo (UNIFESP) (Nummer 933.112) genehmigt wurde. Alle teilnehmenden Patienten oder ihre gesetzlichen Vertreter gaben freiwillig und ohne finanziellen Gewinn eine schriftliche Einverständniserklärung.

Die Einschlusskriterien waren Schlaganfallüberlebende mit Ataxie, Mindestverletzungszeit über 1 Jahr (in der chronischen Rehabilitationsphase), durch eine initiale MRT bestätigter Kleinhirnschlag, klinische Stabilität, Vorliegen einer Hemiplegie oder Tetraplegie motorischer Beeinträchtigung und Aufnahme in die Associação de Rehabilitationszentrum Assistência a Criança Deficiente (AACD) vom 23. September 2014 bis 20. Dezember 2015. Aufgenommen wurden Patienten beiderlei Geschlechts, die mindestens 18 Jahre alt waren. Ein Arzt untersuchte alle Patienten und beschrieb ihre Diagnose in Krankenakten.

Ausschlusskriterien waren körperliche Behinderungen, die das Training mit dem Robotergerät unsicher machten, wie kognitive Beeinträchtigung, Demenz, Aphasie, Vorliegen anderer orthopädischer oder neurochirurgischer Probleme an den unteren Extremitäten, Dekubitus an Hüfte oder unteren Extremitäten, Gewicht über 120 kg, Ataxie, die durch eine fortschreitende Erkrankung entstanden ist und die vorgeschlagene Behandlung nicht erreicht.

Die Teilnehmer wurden jedem Arm dieser Studie nach einem wöchentlichen Zeitplan zugeteilt, der eine Liste der verfügbaren Sitzungen für die vorgeschlagene Behandlung darstellte. Dieser spezielle Zeitplan wurde unter Berücksichtigung von zehn verschiedenen Zeitplanoptionen pro Woche formuliert. Je nach gewähltem Wunschtermin wurden sie einem der beiden Studienarme zugeteilt: therapeutisch unterstütztes Gangtraining (TAGT) oder RAGT. Jeder Teilnehmer absolvierte drei Sitzungen pro Woche. Darüber hinaus wurde ihr Zeitplan entsprechend der Verfügbarkeit und Kapazität der Institution für beide vorgeschlagenen Interventionen organisiert.

2.2. Bewertungsprotokoll

Alle Teilnehmer wurden zu zwei Zeitpunkten von einem verblindeten Evaluator untersucht: vor und nach Abschluss der Protokollbehandlung. Die Berg Balance Scale (BBS), das Functional Independence Measure (FIM), der Timed Up and Go Test (TUG) und die Scale for the Assessment and Rating of Ataxia (SARA) waren die Instrumente, die für die Ausgangs- und Ergebnisbewertung verwendet wurden.

Der BBS-Test wird verwendet, um das Gleichgewicht und das Sturzrisiko zu bewerten. Das BBS konzentriert sich auf das statische und dynamische Gleichgewicht, das 14 Aufgaben mit einer maximalen Punktzahl von 56 umfasst [22, 23].

Der TUG-Test bewertet das Sitzgleichgewicht, den Übergang vom Sitzen zum Stehen, die Stabilität beim Gehen und Gangwechsel [24].

Das FIM wird verwendet, um neuropsychologische und motorische Behinderungen zu beurteilen. Diese Funktionsskala umfasst 18 Items, die in 6 Bereiche eingeteilt sind: 2 kognitiv und 4 motorisch. Jedes Item hat eine aufsteigende Punktzahl von 1 bis 7 (1 = maximale funktionale Abhängigkeit und 7 = maximale funktionale Unabhängigkeit). Der Mindestwert des gesamten Bereichs beträgt 18 und die Gesamtpunktzahl 126 [22].

Die SARA wird verwendet, um den Schweregrad und die Wirksamkeit der Behandlung von zerebellärer Ataxie zu beurteilen. Einige Studien haben ihren Nutzen bei Schlaganfallpatienten gezeigt [25, 26]. Der Gesamtscore reicht von 0 (keine Ataxie) bis 40 (schwere Ataxie) und setzt sich aus den folgenden 8 Items zusammen [27]: 1 Gang (0–8) 2 Stand (0–6) 3 Sitzen (0–4 .) ) 4 Sprachstörung (0–6) 5 Fingerjagd (0–4) 6 Nasenfingertest (0–4) 7 schnelle alternierende Handbewegung (0–4) und 8 Fersen-Schienbein-Schieben (0–4) die vier Extremitäten werden bilateral ausgewertet und aus den Mittelwerten der Gesamtscore berechnet [26].

2.3. Trainingsprotokoll

Die Patienten wurden entsprechend der Behandlung für das Gangtraining in zwei Gruppen eingeteilt: therapeutisch unterstütztes Gangtraining (TAGT) und robotergestütztes Gangtraining (RAGT). Beide Gruppen erhielten 3 intensive Physiotherapie-Sitzungen pro Woche und bekamen Heimübungen verordnet. Jede Gruppe hatte 2 Sitzungen konventioneller Physiotherapie und 1 Sitzung Gangtraining mit einer geschätzten Dauer von jeweils 60 Minuten. Der TAGT wurde, falls erforderlich, unter Verwendung eines Gehgerätes oberirdisch geliefert. Die RAGT wurde mit einem robotergesteuerten Exoskelett-Orthesengerät Lokomat® 5.0 durchgeführt. Bei einer automatisierten elektromechanischen Gangrehabilitation besteht das Lokomat-Gerät aus einer Roboter-Gangorthese in Kombination mit einem gurtgestützten Körpergewichtssystem, das in Kombination mit einem Laufband verwendet wird. Die geschätzte Protokollzeit betrug 5 Monate.

Für beide Gruppen bestand das Rehabilitationsprogramm aus Muskeldehnung und -stärkung, Gleichgewichtstraining, Haltungsstabilitätskontrolle, sensorischen Techniken und funktionellen täglichen Aktivitäten. Darüber hinaus wurden die Patienten ermutigt, die Übungen zu Hause fortzusetzen. Der für die physiotherapeutische Behandlung verantwortliche Fachmann war sehr kompetent und erfahren in der Behandlung von neurologischen Erkrankungen.

Das Hauptziel von RAGT war es, die Bewegungsqualität und die Koordination beider Beine zu verbessern. Die Parameter wurden bei niedriger Geschwindigkeit (zwischen 0,8 km/h und 1,5 km/h) durchgeführt und schrittweise an die Entwicklung der Patienten angepasst. Die Körpergewichtsunterstützung betrug zu Beginn der Protokollbehandlung 50 % des Patientengewichts, die schrittweise bis auf mindestens 10 % am Ende des Protokolltrainings reduziert wurde.

2.4. Statistische Analyse

Alle parametrischen Ergebnisse sind als Mittelwert ± Standardabweichung für jede Gruppe in den Tabellen und im Text dargestellt. Für diese Studie wurde ein Signifikanzniveau von akzeptiert. Die Daten wurden unter Verwendung von Veränderungsscores vom Vor- zum Nachtraining mit gruppeninternen und gruppenübergreifenden Vergleichen analysiert. Es wurden nur Daten von Probanden verwendet, die das Protokolltraining abgeschlossen hatten. Die demografischen Merkmale (Alter und mediane Einbruchszeit) wurden mit dem Mann-Whitney-Modell analysiert U Prüfung. Das Geschlecht, die Verteilung der Diagnose und die seitliche motorische Beeinträchtigung wurden mit dem Two-Ratio-Test analysiert. Der Wilcoxon-Test wurde für gruppeninterne Vergleiche verwendet, und der Mann-Whitney-Test U Test für den Gruppenvergleich. Die Daten wurden mit der SPSS-Software V17, Minitab 16 und Excel Office 2010 analysiert.

3. Ergebnisse

Vom 23. September 2014 bis 20. Dezember 2015 wurden insgesamt 19 Patienten in diese Studie aufgenommen. Die TAGT-Gruppe umfasste 8 Probanden. Die RAGT-Gruppe umfasste 11 Probanden, von denen 4 wegen Nichteinhaltung der Behandlungskriterien des Protokolls ausgeschlossen wurden, so dass 7 Probanden übrig blieben. Das mediane Alter aller Patienten betrug 50,8 ± 13,3 Jahre. Die mediane Beginnzeit aller Patienten betrug 7,8 ± 4,8 Jahre. Die untersuchte Population bestand überwiegend aus Patienten mit hämorrhagischem Schlaganfall (

) (Zwei-Verhältnis-Test). Die Verteilung der motorischen Beeinträchtigungsseite war für beide Gruppen homogen. Die demografische Verteilung und die Ausgangsmerkmale für jede Gruppe sind in Tabelle 1 separat aufgeführt.

Wert repräsentiert die Unterschiede zwischen den Gruppen.

Voraussetzung für einen statistisch signifikanten Unterschied:

. SD: Standardabweichung M: männlich F: weiblich I: ischämisch H: hämorrhagisch.

Nach der Protokollbehandlung zeigten beide Gruppen eine statistisch signifikante Verbesserung ( ) des Gleichgewichts, der funktionellen Unabhängigkeit bei den Aktivitäten des täglichen Lebens und der allgemeinen Symptome einer Ataxie. Diese Verbesserung wurde durch den gruppeninternen Vergleich aller funktionellen Skalenwerte aus der Vor- und Nachbehandlung belegt, die in Tabelle 2 beschrieben sind.

0 : 46 ± 0.400 : 27 ± 0 : 170.011

Wert repräsentiert gruppeninterne Unterschiede.

Voraussetzung für einen statistisch signifikanten Unterschied:

. Der nichtparametrische Wilcoxon-Test wurde verwendet, um Messungen vor und nach der Behandlung zu vergleichen. BBS: Berg Balance Scale TUG: Timed Up and Go Test in Sekunden gemeldet FIM: Functional Independence Measure SARA: Scale Assessment and Rating of Ataxia.

Abbildung 1 zeigt den Unterschied der Mittelwerte des SARA-Scores sowohl für TAGT als auch für RAGT zu Studienbeginn und nach Abschluss der Protokollbehandlung. Es gab eine signifikante Verbesserung des SARA-Scores nach Abschluss des Protokolltrainings für beide Gruppen.

>. Voraussetzung für einen statistisch signifikanten Unterschied: .

Obwohl die beiden Gruppen unterschiedliche Mittelwerte für die funktionellen Skalenwerte aufwiesen (Tabelle 2), gab es keinen statistisch signifikanten Unterschied für den Gruppenvergleich sowohl zu Studienbeginn als auch nach Abschluss der Protokollbehandlung (BBS prä, post TUG prä, post FIM Vor

4. Diskussion

Im Allgemeinen ist das Hauptziel eines Rehabilitationsprogramms die Verbesserung der Gangfähigkeit, die in direktem Zusammenhang mit der Lebensqualität von Patienten nach einem Schlaganfall steht [28]. Weitere häufig angesprochene Beschwerden sind zudem Haltungsinstabilität und Gleichgewichtsstörungen, die mit einem Verlust der Selbständigkeit bei der Ausübung von Aktivitäten des täglichen Lebens zusammenhängen [29].

Balance umfasst eine Reihe von motorischen Fähigkeiten, die direkt mit sensomotorischen Prozessen, funktionellen Kontexten und der Umwelt verbunden sind [30]. Der Schlaganfall ist häufig mit der Beeinträchtigung dieser Fähigkeiten verbunden. Es gibt jedoch nur wenige Studien, die die Wirkung von RAGT auf das Gleichgewicht beschrieben haben [18]. Diese Forschung zielte darauf ab, den Einfluss von robotergestütztem Gangtraining auf das Gleichgewicht zu beurteilen und die funktionelle Unabhängigkeit im täglichen Leben von Überlebenden eines chronischen Schlaganfalls mit Ataxie nach mindestens einem Jahr Verletzung zu überprüfen.

In der vorliegenden Studie haben wir die BBS- und TUG-Tests verwendet, um die Gleichgewichtskontrolle zu beurteilen. Die Ergebnisse zeigten eine signifikante Verbesserung des Gleichgewichts sowohl für die RAGT- als auch für die TAGT-Gruppen. Diese Ergebnisse stimmen mit früheren Berichten überein [18, 31, 32]. Darüber hinaus zeigte sich beim Vergleich der Bilanzergebnisse zwischen den Gruppen, d. h. RAGT vs. TAGT, kein signifikanter Unterschied, was auch durch mehrere Studien gestützt wird [18, 32–35]. Im Gegensatz dazu haben Dundar et al. zeigten eine größere Verbesserung des Gleichgewichts für die Gruppe, die RAGT erhielt, ihr Behandlungsprotokoll umfasste Patienten mit einem Schlaganfallbeginn von 28 Tagen bis 365 Tagen, was sich von der aktuellen Studie unterscheidet, die nur Patienten mit chronischem Schlaganfall umfasste [22].

Nach Abschluss der Protokollbehandlung zeigten sowohl die RAGT- als auch die TAGT-Gruppe eine signifikante Verbesserung der mittleren Ergebnisse auf der FIM-Skala, was darauf hindeutet, dass beide Strategien zur Verbesserung der Unabhängigkeit bei Aktivitäten des täglichen Lebens wirksam sein könnten. Darüber hinaus wurde kein signifikanter Unterschied festgestellt, wenn diese Ergebnisse zwischen den Gruppen verglichen wurden. Ton et al. verglichen auch die therapeutischen Wirkungen von TAGT- und RAGT-Interventionen [32]. Unsere Ergebnisse stimmen hinsichtlich der Verbesserung der allgemeinen Unabhängigkeit und des Fehlens signifikanter Unterschiede für den Intergruppenvergleich überein. Im Gegenteil, andere Studien zeigten eine statistisch überlegene Verbesserung der allgemeinen Aktivitäten für die Gruppe, die RAGT erhielt [22, 28]. Diese Diskrepanz in den Ergebnissen ist noch relativ ungeklärt und sollte weiter untersucht werden.

In der vorliegenden Studie wurde bei Schlaganfallpatienten mit Ataxie-Folge eine Verbesserung des SARA-Ergebnismaßes nach Protokollbehandlung beobachtet, was eine bessere Kontrolle bei Haltungsstörungen zeigt. Beim Vergleich der SARA-Gesamtwerte zwischen den Gruppen gab es keinen statistisch signifikanten Unterschied. Nur wenige Studien haben sich auf die Beurteilung und Rehabilitationsbehandlung von Ataxiestörungen konzentriert und die positiven Auswirkungen von Rehabilitationsprogrammen nachgewiesen [36, 37]. Obwohl es veröffentlichte Untersuchungen zu verschiedenen Techniken wie Virtual Reality, Biofeedback und Laufbandübungen mit oder ohne Körpergewichtsentlastung gibt [36–39], hat keine die Wirkung von RAGT auf chronische Schlaganfallpatienten mit Ataxie untersucht.

Die Gangfähigkeit ist eng mit der Gleichgewichtskontrolle verbunden [40]. Eine systematische Übersichtsarbeit kam zu dem Schluss, dass RAGT bei Patienten nach einem Schlaganfall die Chance zur Wiederherstellung der selbstständigen Gehfähigkeit erhöhen kann [22]. Die größte Verbesserung des selbstständigen Gehens und der Gehgeschwindigkeit wurde in den ersten Monaten nach dem Schlaganfall beobachtet [22, 41].

Eine multizentrische randomisierte klinische Studie, die RAGT mit TAGT-Interventionen bei Patienten mit subakutem Schlaganfall verglich, zeigte, dass TAGT bessere Ergebnisse für die Gangverbesserung lieferte [33]. In ähnlicher Weise zeigte eine andere vergleichende Studie größere Verbesserungen der oberirdischen Gehgeschwindigkeit bei Überlebenden eines chronischen Schlaganfalls, die TAGT erhielten [20].

In den letzten zwei Jahrzehnten haben mehrere Studien unterschiedliche Ergebnisse bezüglich der Auswirkungen der RAGT-Behandlung zur Gangrehabilitation bei Personen nach einem Schlaganfall gezeigt [14, 31, 33, 42, 43].Roboterassistenz ist eine wertvolle Ressource für die Wiederherstellung der Gangfähigkeit. Trotzdem haben nur wenige Studien seine Wirksamkeit zur Wiederherstellung des Gleichgewichts bei Überlebenden eines chronischen Schlaganfalls untersucht. Darüber hinaus gibt es keine veröffentlichte Studie, die sich speziell auf die Behandlung von Ataxie mit RAGT konzentriert hat. Diese Studie hat diese Wissenslücke geschlossen und zum Nachweis beigetragen, dass die Robotertherapie auch ein zusätzlicher Vorteil für die Gleichgewichtsbehandlung ataktischer Patienten sein kann.

Diese Studie hat einige Einschränkungen. Einige Einschränkungen hängen insbesondere mit der kleinen Stichprobengröße zusammen. Darüber hinaus sollten zukünftige Studien eine längere Nachbeobachtungszeit und Patienten in akuten und subakuten Schlaganfallphasen evaluieren. Darüber hinaus empfehlen wir, dass zukünftige Studien die Analyse von RAGT in größeren Stichproben mit einer vergleichenden Messung behandeln und Patienten in allen Stadien des Schlaganfalls einschließen. Darüber hinaus schlagen wir die Untersuchung ergänzender interventioneller Methoden vor, um ein umfassendes Verständnis des Gleichgewichtskontrollmechanismus bei ataktischen Patienten zu erlangen.

5. Schlussfolgerungen

Diese Studie kam zu dem Schluss, dass Patienten mit chronischem Schlaganfall mit Ataxie-Folge eine signifikante Verbesserung des Gleichgewichts und der Unabhängigkeit bei Aktivitäten des täglichen Lebens nach der Behandlung mit RAGT zusammen mit konventioneller Therapie und Heimübungen aufwiesen. Bei dieser Stichprobengröße waren die Ergebnisse unabhängig von der angewendeten Behandlungsstrategie, dh RAGT oder TAGT, ähnlich. Beide Behandlungsansätze sollten als Optionen in Gleichgewichtsrehabilitationsprogramme für ataktische Patienten aufgenommen werden.

Interessenskonflikte

Die Autoren geben an, dass kein Interessenkonflikt besteht.

Verweise

  1. A. Pennycott, D. Wyss, H. Vallery, V. Klamroth-Marganska und R. Riener, „Auf dem Weg zu einem effektiveren Roboter-Gangtraining für die Schlaganfallrehabilitation: ein Rückblick“, Zeitschrift für Neuroengineering und Rehabilitation, Bd. 9, nein. 1, S. 65–13, 2012. Ansicht auf: Verlagsseite | Google Scholar
  2. D. Lloyd-Jones, R. J. Adams, T. M. Brown et al., „Zusammenfassung: Herzkrankheits- und Schlaganfallstatistik-2010-Update: ein Bericht der American Heart Association“, Verkehr, Bd. 121, Nr. 7, S. 948–954, 2010. Ansicht auf: Publisher Site | Google Scholar
  3. U. Bultmann, D. Pierscianek, E. R. Gizewski et al., „Funktionelle Erholung und Rehabilitation von Haltungsschäden und Gangataxie bei Patienten mit akutem Kleinhirninfarkt“, Gang und Haltung, Bd. 39, nein. 1, S. 563–569, 2014. View at: Publisher Site | Google Scholar
  4. B. Husemann, F. Müller, C. Krewer, S. Heller und E. Koenig, „Effekte des Bewegungstrainings mit Hilfe einer robotergesteuerten Gangorthese bei hemiparetischen Patienten nach Schlaganfall: eine randomisierte kontrollierte Pilotstudie“, Schlaganfall, Bd. 38, Nr. 2, S. 349–354, 2007. View at: Publisher Site | Google Scholar
  5. C. Krishnan, D. Kotsapouikis, Y. Y. Dhaher und W. Z. Rymer, „Die Reduzierung der Roboterführung während des robotergestützten Gangtrainings verbessert die Gangfunktion: ein Fallbericht über einen Schlaganfallüberlebenden.“ Archiv für Physikalische Medizin und Rehabilitation, Bd. 94, Nr. 6, S. 1202–1206, 2013. View at: Publisher Site | Google Scholar
  6. B. Indredavik, G. Rohweder, E. Naalsund und S. Lydersen, „Medizinische Komplikationen in einer umfassenden Stroke Unit und einem früh unterstützten Entlassungsdienst“, Schlaganfall, Bd. 39, nein. 2, S. 414–420, 2008. View at: Publisher Site | Google Scholar
  7. S. Bonnì, V. Ponzo, C. Caltagirone und G. Koch, „Cerebellar Theta Burst-Stimulation bei Schlaganfallpatienten mit Ataxie“, Funktionelle Neurologie, Bd. 29, nein. 1, S. 41–45, 2014. Ansicht auf: Verlagsseite | Google Scholar
  8. S. Maeshima, A. Osawa, Y. Miyazaki, H. Takeda und N. Tanahashi, „Funktionelles Ergebnis bei Patienten mit pontinem Infarkt nach akuter Rehabilitation“, Neurologische Wissenschaften, Bd. 33, nein. 4, S. 759–764, 2012. View at: Publisher Site | Google Scholar
  9. S. Datar und A. A. Rabinstein, „Kleinhirnblutung“, Neurologische Kliniken, Bd. 32, nein. 4, S. 993–1007, 2014. View at: Publisher Site | Google Scholar
  10. W. Ilg, H. Golla, P. Thier und M. A. Giese, „Spezifische Einflüsse von Kleinhirndysfunktionen auf den Gang“, Gehirn, Bd. 130, Nr. 3, S. 786–798, 2007. View at: Publisher Site | Google Scholar
  11. S.M. Morton, Y.-W. Tseng, K. M. Zackowski, J. R. Daline und A. J. Bastian, „Longitudinal Tracking von Gang- und Gleichgewichtsstörungen bei Kleinhirnerkrankungen“, Bewegungsstörungen, Bd. 25, nein. 12, S. 1944–1952, 2010. Ansicht auf: Verlagsseite | Google Scholar
  12. Z. Sawacha, E. Carraro, P. Contessa, A. Guiotto, S. Masiero und C. Cobelli, „Beziehung zwischen klinischen und instrumentellen Gleichgewichtsbewertungen bei chronischen Hemiparese-Patienten nach Schlaganfall“, Zeitschrift für Neuroengineering und Rehabilitation, Bd. 10, nein. 1, s. 95, 2013. Ansicht auf: Website des Herausgebers | Google Scholar
  13. S. Hesse, „Laufbandtraining mit Teilkörpergewichtsentlastung nach Schlaganfall: ein Rückblick“ NeuroRehabilitation, Bd. 23, nein. 1, S. 55–65, 2008. Ansicht bei: Google Scholar
  14. D.Y.Cho, S.-W. Park, M. J. Lee, D. S. Park und E. J. Kim, „Auswirkungen des robotergestützten Gangtrainings auf das Gleichgewicht und den Gang von Patienten mit chronischem Schlaganfall: Fokus auf abhängige Gehhilfen“ Zeitschrift für Physikalische Therapiewissenschaft, Bd. 27, nein. 10, S. 3053–3057, 2015. View at: Publisher Site | Google Scholar
  15. S. Kubota, Y. Nakata, K. Eguchi et al., „Machbarkeit eines Rehabilitationstrainings mit einem neu entwickelten tragbaren Roboter für Patienten mit eingeschränkter Mobilität“, Archiv für Physikalische Medizin und Rehabilitation, Bd. 94, Nr. 6, S. 1080–1087, 2013. View at: Publisher Site | Google Scholar
  16. S. Jezernik, G. Colombo, T. Keller, H. Frueh und M. Morari, „Roboterorthese Lokomat: ein Rehabilitations- und Forschungswerkzeug“, Neuromodulation: Technologie an der neuronalen Schnittstelle, Bd. 6, nein. 2, S. 108–115, 2003. Ansicht auf: Publisher Site | Google Scholar
  17. L. Wallard, G. Dietrich, Y. Kerlirzin und J. Bredin, „Auswirkungen der robotergestützten Gangrehabilitation auf biomechanische Parameter bei chronisch hemiplegischen Patienten“, Neurophysiologie Clinique/Klinische Neurophysiologie, Bd. 45, nein. 3, S. 215–219, 2015. View at: Publisher Site | Google Scholar
  18. E. Swinnen, D. Beckwée, R. Meeusen, J.-P. Baeyens und E. Kerckhofs: „Verbessert die robotergestützte Gangrehabilitation das Gleichgewicht bei Schlaganfallpatienten? Eine systematische Überprüfung“, Themen in der Schlaganfallrehabilitation, Bd. 21, nein. 2, S. 87–100, 2014. View at: Publisher Site | Google Scholar
  19. C. Tefertiller, B. Pharo, N. Evans und P. Winchester, „Wirksamkeit von Rehabilitationsrobotern für das Gehtraining bei neurologischen Erkrankungen: eine Übersicht“, Zeitschrift für Rehabilitationsforschung und -entwicklung, Bd. 48, nein. 4, S. 387–416, 2011. View at: Publisher Site | Google Scholar
  20. T. G. Hornby, D. D. Campbell, J. H. Kahn, T. Demott, J. L. Moore und H. R. Roth, „Verbesserte Gangverbesserungen nach Therapeuten- versus Roboter-unterstütztem Bewegungstraining bei Probanden mit chronischem Schlaganfall: eine randomisierte kontrollierte Studie“, Schlaganfall, Bd. 39, nein. 6, S. 1786–1792, 2008. View at: Publisher Site | Google Scholar
  21. J. F. Israel, D. D. Campbell, J. H. Kahn und T. G. Hornby, „Stoffwechselkosten und Muskelaktivitätsmuster beim roboter- und therapeutengestützten Laufbandlaufen bei Personen mit unvollständiger Rückenmarksverletzung“, Physiotherapie, Bd. 86, Nr. 11, S. 1466–1478, 2006. Ansicht auf: Verlagsseite | Google Scholar
  22. U. Dundar, H. Toktas, O. Solak, A. M. Ulasli und S. Eroglu, „Eine vergleichende Studie von konventioneller Physiotherapie versus Robotertraining in Kombination mit Physiotherapie bei Schlaganfallpatienten.“ Themen in Stoke Rehabilitation, Bd. 21, nein. 6, S. 453–461, 2014. View at: Publisher Site | Google Scholar
  23. S. T. Miyamoto, I. Lombardi Junior, K. O. Berg, L. R. Ramos und J. Natour, „Brasilianische Version der Berg-Balance-Skala“, Brasilianisches Journal für medizinische und biologische Forschung, Bd. 37, nein. 9, S. 1411–1421, 2004. Ansicht auf: Verlagsseite | Google Scholar
  24. T. B. Hafsteinsdóttir, M. Rensink und M. Schuurmans, „Klinimetrische Eigenschaften des Timed-Up-and-Go-Tests für Schlaganfallpatienten: eine systematische Überprüfung“, Themen in der Schlaganfallrehabilitation, Bd. 21, nein. 3, S. 197–210, 2014. View at: Publisher Site | Google Scholar
  25. B.-R. Kim, J.-Y. Lee, M. J. Kim, H. Jung und J. Lee, „Koreanische Version der Skala zur Beurteilung und Bewertung von Ataxie bei Patienten mit ataktischem Schlaganfall“ Annalen der Rehabilitationsmedizin, Bd. 38, Nr. 6, S. 742–751, 2014. View at: Publisher Site | Google Scholar
  26. B.-R. Kim, J.-H. Lim, S. A. Lee et al., „Nützlichkeit der Skala zur Beurteilung und Bewertung von Ataxie (SARA) bei Patienten mit ataktischem Schlaganfall“ Annalen der Rehabilitationsmedizin, Bd. 35, Nr. 6, S. 772–780, 2011. View at: Publisher Site | Google Scholar
  27. P. Braga-Neto, C. Godeiro-Junior, L. A. Dutra, J. L. Pedroso und O. G. P. Barsottini, „Übersetzung und Validierung in die brasilianische Version der Bewertungs- und Bewertungsskala von Ataxie (SARA)“ Arquivos de Neuro-Psiquiatria, Bd. 68, Nr. 2, S. 228–230, 2010. Ansicht auf: Publisher Site | Google Scholar
  28. G. Taveggia, A. Borboni, C. Mulé, J. H. Villafañe und S. Negrini, „Widersprüchliche Ergebnisse von robotergestütztem versus üblichem Gangtraining während der postakuten Rehabilitation von Schlaganfallpatienten: eine randomisierte klinische Studie“, Internationale Zeitschrift für Rehabilitationsforschung, Bd. 39, nein. 1, S. 29–35, 2016. View at: Publisher Site | Google Scholar
  29. P. G. Lopes, J. A. F. Lopes, C. M. Brito, F. M. Alfieri und L. Rizzo Battistella, „Beziehungen von Gleichgewicht, Gangleistung und funktionellem Ergebnis bei chronischen Schlaganfallpatienten: ein Vergleich von linken und rechten Läsionen“, BioMed Research International, Bd. 2015, Artikel-ID 716042, 8 Seiten, 2015. View at: Publisher Site | Google Scholar
  30. C. B. de Oliveira, I. R. de Medeiros, N. A. Frota, M. E. Greters und A. B. Conforto, „Gleichgewichtskontrolle bei Patienten mit hemiparetischem Schlaganfall: Hauptinstrumente für die Bewertung“, Zeitschrift für Rehabilitationsforschung und -entwicklung, Bd. 45, nein. 8, S. 1215–1226, 2008. Ansicht bei: Google Scholar
  31. L. Conesa, . Costa, E. Morales et al., „Ein Beobachtungsbericht über intensives roboter- und manuelles Gangtraining bei subakutem Schlaganfall“, Zeitschrift für Neuroengineering und Rehabilitation, Bd. 9, nein. 1, s. 13, 2012. Ansicht auf: Publisher-Site | Google Scholar
  32. R. K. Tong, M. F. Ng und L. S. Li, „Effektivität des Gangtrainings mit einem elektromechanischen Gangtrainer, mit und ohne funktionelle Elektrostimulation, bei subakutem Schlaganfall: eine randomisierte kontrollierte Studie“, Archiv für Physikalische Medizin und Rehabilitation, Bd. 87, nein. 10, S. 1298–1304, 2006. View at: Publisher Site | Google Scholar
  33. J. Hidler, D. Nichols, M. Pelliccio et al., „Multizentrische randomisierte klinische Studie zur Bewertung der Wirksamkeit des Lokomat bei subakutem Schlaganfall“ Neurorehabilitation und neuronale Reparatur, Bd. 23, nein. 1, S. 5–13, 2009. Ansicht auf: Verlagsseite | Google Scholar
  34. D. Dias, J. Laíns, A. Pereira et al.: „Können wir die Gangfähigkeit bei chronischer Hemiplegie verbessern? Eine randomisierte Kontrollstudie mit Gangtrainer“, Europa Medicophysik, Bd. 43, nein. 4, S. 499–504, 2007. Ansicht bei: Google Scholar
  35. M. F. W. Ng, R. K. Y. Tong und L. S. W. Li, „Eine Pilotstudie einer randomisierten klinisch-kontrollierten Studie zum Gangtraining bei Patienten mit subakutem Schlaganfall mit partiellem Körpergewicht, elektromechanischem Gangtrainer und funktioneller elektrischer Stimulation: Nachuntersuchung nach sechs Monaten.“ Schlaganfall, Bd. 39, nein. 1, S. 154–160, 2008. View at: Publisher Site | Google Scholar
  36. A. Marquer, G. Barbieri und D. Pérennou, „Die Bewertung und Behandlung von Haltungsstörungen bei zerebellärer Ataxie: eine systematische Überprüfung“, Annalen der Physikalischen und Rehabilitationsmedizin, Bd. 57, nein. 2, S. 67–78, 2014. View at: Publisher Site | Google Scholar
  37. K. Cernak, V. Stevens, R. Price und A. Shumway-Cook, „Bewegungstraining mit Unterstützung des Körpergewichts auf einem Laufband in Verbindung mit laufender Physiotherapie bei einem Kind mit schwerer zerebellärer Ataxie.“ Physiotherapie, Bd. 88, Nr. 1, S. 88–97, 2007. View at: Publisher Site | Google Scholar
  38. J. E. Freund und D. M. Stetts, „Einsatz von Rumpfstabilisierung und Bewegungstraining bei einem Erwachsenen mit zerebellärer Ataxie: ein einziges Systemdesign“, Theorie und Praxis der Physiotherapie, Bd. 26, nein. 7, S. 447–458, 2010. Ansicht auf: Publisher Site | Google Scholar
  39. D. V. Vaz, C. Schettino R de, T. R. Rolla de Castro, V. R. Teixeira, S. R. Cavalcanti Furtado und E. de Mello Figueiredo, „Laufbandtraining für ataktische Patienten: ein Einzelsubjekt-Versuchsdesign“, Klinische Rehabilitation, Bd. 22, nein. 3, S. 234–241, 2008. View at: Publisher Site | Google Scholar
  40. T. J. Kim, K. M. Seo, D.-K. Kim und S. H. Kang, „Die Beziehung zwischen den anfänglichen Rumpfleistungen und der funktionellen Prognose bei Patienten mit Schlaganfall“, Annalen der Rehabilitationsmedizin, Bd. 39, nein. 1, S. 66–73, 2015. View at: Publisher Site | Google Scholar
  41. J. Mehrholz, C. Werner, J. Kugler und M. Pohl, „Elektromechanisch unterstütztes Gehtraining nach Schlaganfall“ Die Cochrane-Kollaboration, Nein. 9, 2010. Ansicht bei: Google Scholar
  42. D. E. Uçar, N. Paker und D. Buğdaycı, „Lokomat: eine therapeutische Chance für Patienten mit chronischer Hemiplegie“, NeuroRehabilitation, Bd. 34, Nr. 3, S. 447–453, 2014. View at: Publisher Site | Google Scholar
  43. B. H. Dobkin, „Progressive Staging von Pilotstudien zur Verbesserung von Phase-III-Studien für motorische Interventionen“, Neurorehabilitation und neuronale Reparatur, Bd. 23, nein. 3, S. 197–206, 2009. View at: Publisher Site | Google Scholar

Urheberrechte ©

Copyright © 2018 Marcia Belas dos Santos et al. Dies ist ein Open-Access-Artikel, der unter der Creative Commons Attribution License vertrieben wird und die uneingeschränkte Verwendung, Verbreitung und Reproduktion in jedem Medium erlaubt, vorausgesetzt, das Originalwerk wird ordnungsgemäß zitiert.


Studie 1

Als eine der ersten empirischen Untersuchungen, wie der Uncanny Valley-Effekt moralische Bewertungen beeinflusst, haben wir zwei Experimente durchgeführt. Einige allgemeine Designmerkmale sind erwähnenswert, bevor wir uns den Besonderheiten jeder Studie zuwenden. Das erste Feature befasst sich mit der entscheidenden Frage, wie man mit Bildern den Uncanny Valley-Effekt induzieren kann. Frühere Forschungen haben gezeigt, dass das zuverlässige Hervorrufen des Uncanny Valley-Effekts mit visuellen Reizen sorgfältiges Design und Vortests erfordert. Beispielsweise wurde in der Forschung zum Uncanny Valley-Effekt häufig die sogenannte „Morphing-Technik“ verwendet, bei der Bilder von Robotern mit Bildern von Menschen über einer Reihe von Bildern gemorpht werden, um scheinbar unheimliche und gruselige visuelle Reize zu erzeugen [53]. Neuere Erkenntnisse deuten jedoch darauf hin, dass mit dieser Technik erstellte Bilder nicht zuverlässig die unheimlichen und gruseligen Gefühle hervorrufen, die den unheimlichen Taleffekt charakterisieren [54]. In diesen Studien werden daher umfassend validierte Bilder verwendet, die zuverlässig den Uncanny Valley-Effekt (adaptiert nach [54]) induzieren. Das zweite Gestaltungsmerkmal beschäftigt sich mit der Frage, wie die Bewertungen von Menschen zu moralischen Entscheidungen menschlicher und nicht-menschlicher Wesenheiten gemessen werden können. In Anlehnung an frühere Forschungen übernehmen wir wiederum die von Laakasuo und Sundvall [20] vorgeschlagene Methodik und verwenden drei moralische Dilemma-Vignetten mit hohem Konfliktpotenzial, die in einer einzigen Skala gemittelt werden. Aus der von Laakasuo und Sundvall [20] analysierten 12er-Gruppe wählten wir gezielt Dilemmata ohne Kleinkinder und Dilemmata aus, die prima facie für unsere Zwecke am geeignetsten erschienen.

Methode

Teilnehmer und Gestaltung

Um Teilnehmer zu rekrutieren, haben wir ein Labor in einer öffentlichen Bibliothek (in Espoo, Finnland) eingerichtet. Das Durchschnittsalter der Teilnehmer betrug 39,7 Jahre (SD = 15,1 Bereich = 18-79). Für das Laborexperiment haben wir 160 Teilnehmer rekrutiert. Nach Ausschluss von zehn Teilnehmern, die angaben, bereits an ähnlichen Experimenten teilgenommen zu haben, was möglicherweise die Naivität mit dem Paradigma untergräbt, betrug unsere endgültige Stichprobengröße 150 Teilnehmer. Die Einbeziehung der 10 Teilnehmer mit kompromittierter Naivität in die Analysen hatte jedoch keinen signifikanten Einfluss auf die Ergebnisse. Als Entschädigung nahmen die Teilnehmer an einer Verlosung von Kinokarten (im Wert von 11 $) teil.

Verfahren, Design und Materialien

Nachdem sie ihr Einverständnis gegeben hatten, wurden die Teilnehmer in Kabinen eskortiert, wo sie Kopfhörer aufsetzten und leise rosa Rauschen spielten. Die Daten wurden in Verbindung mit einer anderen Studie erhoben [11]. Die Software ordnete die Teilnehmer in einem 2 [Entscheidung: deontologisch vs. utilitaristisch] × 4 [UV-Agent: Mensch, Asimo, iClooney, Sonny] Zwischensubjekt-Design randomisiert den Bedingungen zu. Die Teilnehmer absolvierten zunächst einige explorative Maßnahmen, gefolgt von der eigentlichen Aufgabenstellung und Fragen zur Demografie.

Die Aufgabe der Teilnehmer bestand darin, moralische Entscheidungen Dritter aus der Perspektive einer dritten Person zu bewerten. Der erste Faktor zwischen den Subjekten, Entscheidung, hatte zwei Ebenen: utilitaristisch vs. deontologisch. Der zweite Faktor, Agent, hatte vier Ebenen: (1) ein gesunder Mensch (nicht gruselig/sympathisch), (2) Hondas humanoider Asimo-Roboter (nicht gruselig/sympathisch), (3) ein Android-Charakter „Sonny“ aus dem Film iRobot (etwas gruselig/unsympathisch) und (4) „iClooney“, ein Bild von Sonny, das zusammen mit einem menschlichen Gesicht gemorpht wurde (sehr gruselig/sehr unsympathisch siehe Abb. Fußnote 5 1 für Bilder (zur Validierung siehe [54] ).

Der Instruktionstext beschrieb den Teilnehmern Agenten mit den Worten: „Im folgenden Abschnitt lesen Sie verschiedene Situationen, in denen ein Agent eine Entscheidung treffen muss. Der Bearbeiter, der die Entscheidung treffen muss, wird neben der Situationsbeschreibung angezeigt. Ihre Aufgabe ist es, die Situationsbeschreibung sorgfältig zu lesen und die vom Agenten getroffene Entscheidung zu bewerten.“

Abhängige Variable

Die Teilnehmer bewerteten drei Vignetten vom Typ Trolley-Dilemma in zufälliger Reihenfolge, wobei der Agent auf der linken Seite des Dilemmas angezeigt wurde (Beispiele siehe Anhang).Die Teilnehmer gaben unter jeder Vignette an, wie moralisch sie die Entscheidung des Agenten auf einer Likert-Skala von 1 („Sehr unmoralisch“) bis 7 („Sehr moralisch“). Alle drei Items wurden zusammen gemittelt, was zu einer „Wahrnehmungsmoral“-Skala mit guter interner Konsistenz führte (Cronbachs α = 0,75 M = 4,16, SD = 1,46). Diese Methode wurde vorvalidiert und hat erhebliche Vorteile gegenüber traditionellen einmaligen Dilemmata (für Details siehe [18]).

Ergebnisse

Um die Hypothese zu testen, dass die moralischen Entscheidungen der „gruseligen“ Roboter als weniger moralisch wahrgenommen werden als die gleichen Entscheidungen der „nicht-gruseligen“ Agenten, haben wir zunächst den quadratischen Kontrast [Mensch + Asimo] vs. [iRobot + iClooney] berechnet. für den DV, der über den Entscheidungskategorien (deontologisch, utilitaristisch) zusammenbricht. Wie in Abb. 2 dargestellt, zeigt die Kontrastanalyse einen statistisch signifikanten quadratischen Effekt (F(1, 145) = 5.54, P = 0.02, B = 1,37, 95 %-KI [0,22, 2,51]). Als nächstes führten wir eine ANOVA für die Haupteffekte beider Faktoren (Entscheidung und Entscheidung) und ihre Wechselwirkung durch. Es gab keine statistisch signifikanten Haupteffekte. Fußnote 6 Die Ergebnisse der quadratischen Kontrastanalyse für die Entscheider (Agenten) sind in Abb. 2 oben dargestellt.

Ergebnisse der Studie 1. Die quadratische Kontrastform ähnelt der von Mori vorgeschlagenen Uncanny Valley-Form [49] Fehlerbalken betragen 95 % CIs

Diskussion

Die erste Studie lieferte empirische Unterstützung für einen quadratischen (talförmigen) Zusammenhang zwischen den Agenten und der wahrgenommenen Moral ihrer Entscheidungen – ein erster Hinweis auf a moralisches unheimliches Tal Wirkung. Wir stellen fest, dass die Stichprobengröße von ca. 19 Teilnehmern pro Zelle nicht die empfohlene Zellgröße von 30 Teilnehmern pro Zelle nach [74] erreicht und führten daher Studie 2 mit einer größeren Stichprobengröße durch.


Buh! Roboter lernen zu springen wie verängstigte Säugetiere

ROBOTER, die in der Sicherheit eines Labors entwickelt wurden, können zu langsam sein, um auf die Gefahren der realen Welt zu reagieren. Aber von der Biologie inspirierte Software verspricht, Robotern das Äquivalent der Amygdala von Säugetieren zu geben, einem Teil des Gehirns, der schnell auf Bedrohungen reagiert.

STARTLE, entwickelt von Mike Hook und Kollegen von Roke Manor Research in Romsey in Hampshire, Großbritannien, verwendet ein künstliches neuronales Netzwerk, um nach abnormalen oder inkonsistenten Daten zu suchen. Ist ihm das Außergewöhnliche beigebracht, kann er Gefahren in der Umwelt erkennen.

Beispielsweise könnte STARTLE anhand von Daten, die von den Bordsensoren eines Roboterfahrzeugs gespeist werden, ein Schlagloch erkennen und eine Warnung an das Steuersystem des Fahrzeugs weitergeben, um mehr Rechenressourcen auf diesen Teil der Straße zu konzentrieren.

Werbung

“Es könnte ein Schlagloch bemerken und eine Warnung an das Kontrollsystem des Fahrzeugs weitergeben, um Ressourcen zu fokussieren”

“Wenn es etwas Anomales sieht, wird die Ermittlungsverarbeitung geweckt. Dies ermöglicht es uns, rechenintensive Algorithmen nur dann zu verwenden, wenn sie für die Bewertung möglicher Bedrohungen erforderlich sind, anstatt auf alles gleich zu reagieren”, sagt Hook.

Dieses Design ahmt die Amygdala nach, die eine schnelle Reaktion auf Bedrohungen bietet. Die Amygdala hilft kleinen Tieren, mit einer komplexen, sich schnell ändernden Umgebung umzugehen, und lässt sie die meisten Sinnesreize ignorieren. “Der Schlüssel ist, dass es ’ ist, um anomale Bedingungen zu erkennen,”, sagt Hook, “nicht routinemäßige.”

STARTLE wurde sowohl in der Fahrzeugnavigation als auch in der Überwachung des Roboterzustands getestet. In letzterem kann es trainiert werden, auf Gefahrenzeichen wie plötzliche Änderungen der Batterieleistung oder Temperatur zu reagieren. Es wurde auch in Computernetzwerken getestet, um Sicherheitsbedrohungen zu erkennen, da es darauf trainiert wurde, das mit einem Angriff verbundene Aktivitätsmuster zu identifizieren.

“Ein Amygdala-Roboternetzwerk könnte nützlich sein”, sagt der Neurowissenschaftler Keith Kendrick von der University of Electronic Science and Technology of China in Chengdu. “Eine solche Analyse mit niedriger Auflösung macht manchmal Fehler, und Sie werden unnötig etwas vermeiden.” Aber es wird auch eine langsamere, hochauflösende Analyse durchgeführt, die die Fehler überschreiben kann.

Hooks sagt, dass STARTLE für alle Roboter in komplexen Umgebungen nützlich sein könnte. So könnte ein Roboterfahrzeug beispielsweise andere Fahrer mit unberechenbarem Verhalten erkennen, eine große Herausforderung für konventionelle Computer.


Verweise

Pichon, J.-M., Blanes, C. & Franceschini, N. in Mobile Roboter IV (Hrsg. Wolfe, W. J. & Chun, W. H.) 44–53 (Society of Photo-optical Instrumentation Engineers, Bellingham, 1989).

Franceschini, N., Pichon, J. M. & Blanes, C. Von der Insektensicht zur Robotersicht. Phil. Übers. R. Soc. Lange. B 337, 283–294 (1992).

Franceschini, N. Technische Anwendungen kleiner Gehirne. FED J. 7, 38–52 (1996).

Mura, F. & Franceschini, N. in Intelligente Fahrzeuge II (Hrsg. Aoki, M. &. Masaki, I.) 47–52 (MIT Press, Cambridge, MA, 1996).

Cruse, H., Bartling, C., Cymbalyuk, G., Dean, J. & Dreifert, M. Ein modulares künstliches neuronales Netzwerk zur Steuerung eines sechsbeinigen Gehsystems. Biol. Kyberne. 72, 421–430 (1995).

Cruse, H., Kindermann, T., Schumm, M., Dean, J. & Schmitz, J. Walknet – ein biologisch inspiriertes Netzwerk zur Kontrolle des sechsbeinigen Gehens. Neuronale Netze 11, 1435–1447 (1998).

Lambrinos, D. et al. Ein autonomer Agent, der mit einem polarisierten Lichtkompass navigiert. Anpassen. Verhalten 6, 175–206 (1997).

Lambrinos, D., Moller, R., Labhart, T., Pfeifer, R. & Wehner, R. Ein mobiler Roboter, der Insektenstrategien zur Navigation einsetzt. Roboter. Autom. Syst. 30, 39–64 (2000).

Wehner, R. in Neuronale Basis von Verhaltensanpassungen (Hrsg. Schildberger, K. &. Elsner, N.) 103–143 (Fischer, Stuttgart, 1994).

Labhart, T. Polarisationsgegnerische Interneurone im visuellen System von Insekten. Natur 331, 435–437 (1988).

Rind, F.C. & Simmons, P.J. Signalisierung der Objektannäherung durch das DCMD-Neuron der Heuschrecke. J. Neurophysiologie. 77, 1029–1033 (1997).

Blanchard, M., Rind, F.C. & Verschure, P.F.M.J. Kollisionsvermeidung unter Verwendung eines Modells des Heuschrecken-LGMD-Neurons. Roboter. Autom. Syst. 30, 17–38 (2000).

Morse, T. M., Ferree, T. C. & Lockery, S. R. Robuste räumliche Navigation in einem von Chemotaxis inspirierten Roboter in Caenorhabditis elegans. Anpassen. Verhalten 6, 393–410 (1998).

Damper, R.I., Französisch, R.L.B. & Scutt, T.W. ARBIB: ein autonomer Roboter basierend auf Inspirationen aus der Biologie. Roboter. Autom. Syst. 31, 247–274 (2000).

Grasso, F., Consi, T., Mountain, D. & Atema, J. in Von Tieren zu Animationen 4: Proc. Sechster Int. Konf. Simul. Anpassen. Verhalten (Hrsg. Maes, P., Mataric, M.J., Meyer, J.A., Pollack, J. & Wilson, S.W.) 104–112 (MIT Press, Cambridge, MA, 1996).

Grasso, F., Consi, T., Mountain, D. & Atema, J. Biomimetischer Hummer-Roboter führt in Turbulenzen eine Chemo-Orientierung mit zwei räumlich getrennten Sensoren durch: Fortschritt und Herausforderungen. Roboter. Autom. Syst. 30, 115–131 (2000).

Quinn, R. D. & Ritzmann, R. E. Der Bau eines Hexapod-Roboters mit Kakerlaken-Kinematik kommt sowohl der Robotik als auch der Biologie zugute. Verbinden. Wissenschaft 10, 239–254 (1998).

Delcomyn, F. & Nelson, M. E. Architekturen für einen biomimetischen Hexapod-Roboter. Roboter. Autom. Syst. 30, 5–15 (2000).

Kuwana, Y., Shimoyama, I. & Miura, H. in Proz. IEEE Int. Konf. Intellekt. Robotersystem 530–535 (IEEE Computer Society Press, Los Alamitos, CA, 1995).

Webb, B. Was bietet die Robotik für das Verhalten von Tieren? Anim. Verhalten 60, 545–558 (2000).

Webb, B. Sind „Bioroboter“ gute Modelle für biologisches Verhalten? Verhalten Gehirn Sci. (In der Presse).

Braitenberg, V. Fahrzeuge: Experimente in der synthetischen Psychologie (MIT Press, Cambridge, MA, 1984).

Huber, F. Verhalten und Neurobiologie akustisch orientierter Insekten. Naturwissenschaften 79, 393–406 (1992).

Huber, F. &. Thorson, J. Cricket auditive Kommunikation. Wissenschaft Bin. 253, 47–54 (1985).

Wohlers, D. W. & Huber, F. Verarbeitung von Schallsignalen durch sechs Arten von Neuronen im prothorakalen Ganglion der Grille Gryllus campestris L. J. Komp. Physiol. 146, 161–173 (1981).

Schildberger, K. Verhaltens- und neuronale Methoden der Cricket-Phonotaxis. Erfahrung 44, 408–415 (1988).

Wendler, G. in Sensorische Systeme und Kommunikation bei Arthropoden (Hrsg. Gribakin, F. G., Wiese, K. & Popov, A. V.) 387–394 (Birkhäuser, Basel, 1990).

Pollack, G. S. in Vergleichendes Hören: Insekten (Hrsg. Hoy, R.R., Popper, A.N. & Fay, R.R.) 139-196 (Springer, New York, 1998).

Webb, B. in Von Tieren zu Animationen 3: Proc. Dritte Int. Konf. Simul. Anpassen. Verhalten (Hrsg. Cliff, D., Husbands, P., Meyer, J.-A. & Wilson, S.W.) 45–54 (MIT Press, Cambridge, MA, 1994).

Webb, B. Mit Robotern Tiere modellieren: ein Cricket-Test. Roboter. Autom. Syst. 16, 117–134 (1995).

Lund, H.H., Webb, B. & Hallam, J. in Vierte Eur. Konf. Artif. Leben (Hrsg. Husbands, P. & Harvey, I.) 246–255 (MIT Press, Cambridge, MA, 1997).

Lund, H.H., Webb, B. & Hallam, J. Physikalische und zeitliche Skalierungsüberlegungen in einem Robotermodell der Cricket-Calling-Liedpräferenz. Artif. Leben 4, 95–107 (1998).

Webb, B. & Scutt, T. Ein einfaches latenzabhängiges Spiking-Neuronenmodell der Cricket-Phonotaxis. Biol. Kyberne. 82, 247–269 (2000).

Michelsen, A., Popov, A. V. & Lewis, B. Physik des Richtungshörens in der Grille Gryllus bimaculatus. J. Komp. Physiol. EIN 175, 153–164 (1994).

Schildberger, K. Zeitliche Selektivität identifizierter auditiver Interneuronen im Grillengehirn. J. Komp. Physiol. 155, 171–185 (1984).

Horridge, G. A., Loughet-Higgins, H. C. & Horridge, G. A. Was können Ingenieure aus dem Sehen von Insekten lernen? Phil. Übers. R. Soc. Lange. B 337, 271–282 (1992).

Srinivasan, M.V. &. Venkatesh, S. Von lebenden Augen zu sehenden Maschinen (Oxford Univ. Press, Oxford, 1997).

Lewis, A. in Fortschritte in neuronalen Informationsverarbeitungssystemen 10 (Hrsg. Jordan, M. I., Kearns, M. J. & Solla, S. A.) 822–828 (MIT Press, Cambridge, MA 1998).

Franceschini, N. &. Chagneux, R. in Neurobiologie: Von der Membran zum Verstand. Proz. 25. Göttingen Neurobiol. Konf. (Hrsg. Elsner, N. &. Wassle, H.) (G. Thieme, Stuttgart, 1997).

Hoshino, K., Mura, F. &. Shimoyama, I. Design und Leistung eines biomorphen Facettenauges in Mikrogröße mit einer scannenden Netzhaut. J. Mikroelektrotechnik. Syst. 9, 32–37 (2000).

Harrison, R.R. &. Koch, C. Eine Siliziumimplementierung des optomotorischen Kontrollsystems der Fliege. Neuronale Computer. 12, 2291–2304 (2000).

Harrison, R. R. & Koch, C. in Fortschritte in neuronalen Informationsverarbeitungssystemen 10 (Hrsg. Jordan, M.I., Kearns, M.J. & Solla, S.A.) 880–886 (MIT Press, Cambridge, MA, 1998).

Met, C. Analoge VLSI und neuronale Systeme (Addison-Wesley, Reading, MA, 1989).

Hassenstein, B. & Reichardt, W. Systemtheoretische Analyse der Zeit-, Reihenfolgen- und Vorzeichenauswertung bei der Bewungsperzeption des Rüsselkäfers. Chlorophan. Z. Naturforsch. 11b, 513–524 (1956).

Harrison, R. R. & Koch, C. Ein robuster analoger VLSI-Bewegungssensor basierend auf dem visuellen System der Fliege. Autom. Roboter. 7, 211–224 (1999).

Weber, T., Thorson, J. & Huber, F. Hörverhalten der Grille I. Dynamik kompensierter Geh- und Diskriminierungsparadigmen auf dem Kramer Laufband. J. Komp. Physiol. EIN 141, 215–232 (1981).

Böhm, H., Schildberger, K. & Huber, F. Visuelle und akustische Kurskontrolle in der Grille Gryllus bimaculatus. J. Erw. Biol. 159, 235–248 (1991).

Webb, B. & Harrison, R. R. in Proz. SPIE Symp. Sensorfusion und dezentrale Steuerung in Robotersystemen III (Hrsg. McKee, G.T. & Schenker, P.S.) 113–124 (SPIE, Boston, MA, 2000).

Kohstall-Schnell, D. & Gras, H. Aktivität von Rieseninterneuronen und anderen windempfindlichen Elementen des terminalen Bauchganglions beim Walking Cricket. J. Erw. Biol. 193, 157–181 (1994).

Paydar, S., Doan, C. & Jacobs, G. Neurale Kartierung von Richtung und Frequenz im Cricket-Zerkalsystem. J. Neurosci. 19, 1771–1781 (1999).

Chapmann, T. Morphologische und neuronale Modellierung der orthopteren Fluchtreaktion. Abschlussarbeit, Univ. Stirling (2001).

Shimozawa, T. & Kanou, M. Die Aerodynamik und Sinnesphysiologie der Bereichsfraktionierung im fadenförmigen Cerkalhaar der Grille Gryllus bimaculatus. J. Komp. Physiol. EIN 155, 495–505 (1984).

Tauber, E. &. Camhi, J. Das vom Wind hervorgerufene Fluchtverhalten der Grille Gryllus bimaculatus: Integration von Verhaltenselementen. J. Erw. Biol. 198, 1895–1907 (1995).

Ezrachi, E., Levi, R., Camhi, J. &. Parnas, H. Rechts-Links-Unterscheidung in einem biologisch orientierten Modell des Kakerlaken-Fluchtsystems. Biol. Kyberne. 81, 89–99 (1999).


Beruf der Zukunft: Roboterpsychologe

Das Auge von HAL spiegelt den Astronauten Dave Bowman im 1968er Film „2001: A Space Odyssey“ wider. Alles, was Dave wollte, war, dass HAL die Kabinentüren öffnete.

Christopher Mims

Ingenieure der Künstlichen Intelligenz haben ein Problem: Sie wissen oft nicht, was ihre Kreationen denken.

Mit zunehmender Komplexität und Verbreitung der künstlichen Intelligenz wird sie auch leistungsfähiger. KI hat bereits Entscheidungen darüber getroffen, wer ins Gefängnis kommt und wer einen Kredit erhält. Es gibt Vorschläge, die KI bestimmen sollte, wer die besten Lebenschancen hat, wenn ein selbstfahrendes Auto einem unvermeidlichen Unfall ausgesetzt ist.

Die Definition von KI ist schlüpfrig und wird immer schwieriger, da Startups das Schlagwort über alles, was sie tun, schmieren. Es wird allgemein als jeder Versuch akzeptiert, menschliche Intelligenz und Fähigkeiten nachzuahmen.

Eine Teilmenge, die sich durchgesetzt hat, sind neuronale Netze, Systeme, die wie Menschen durch Training „lernen“ und Erfahrungen in Netzwerke simulierter Neuronen verwandeln. Das Ergebnis ist kein Code, sondern eine unlesbare, verworrene Masse von Millionen – manchmal Milliarden – künstlicher Neuronen, was erklärt, warum diejenigen, die moderne KIs entwickeln, verwirrt sein können, wie sie Aufgaben lösen.

Die meisten Forscher sind sich einig, dass die Herausforderung, die KI zu verstehen, dringend ist. Wenn wir nicht wissen, wie ein künstlicher Verstand funktioniert, wie können wir dann seine Voreingenommenheit feststellen oder seine Fehler vorhersagen?

Lesen Sie Ihren Artikel weiter mit eine WSJ-Mitgliedschaft


Robotergestützte und konventionelle Therapien führen zu deutlichen Rehabilitationstrends bei Schlaganfallüberlebenden

Hintergrund: Ein Vergleich der Wirksamkeit alternativer therapeutischer Strategien zur Rehabilitation der motorischen Funktion bei chronisch beeinträchtigten Personen ist oft nicht eindeutig. Beispielsweise verglich eine kürzlich durchgeführte randomisierte klinische Studie (RCT) die robotergestützte mit der konventionellen Therapie bei 77 Patienten, die nach einem zerebrovaskulären Unfall eine chronische motorische Beeinträchtigung hatten. Während Patienten, die einer Robotertherapie zugeteilt wurden, größere Verbesserungen im primären Zielparameter (Veränderung des Scores im Bereich der oberen Extremität der Fugl-Meyer-Beurteilung) aufwiesen, war der absolute Unterschied zwischen den Therapien gering, was die klinische Relevanz in Frage stellte.

Methoden: Hier greifen wir diese Studie erneut auf, um zu testen, ob das multidimensionale rehabilitative Ansprechen dieser Patienten besser zwischen Behandlungsergebnissen unterscheiden kann. Wir verwendeten eine Hauptkomponentenanalyse, um die Korrelation der Veränderungen zwischen sieben Endpunkten zwischen Beginn und Ende der achtwöchigen Therapie zu ermitteln. Permutationstests bestätigten die Robustheit der gefundenen Hauptkomponenten.

Ergebnisse: Jede Therapie erzeugt in der Tat unterschiedliche Rehabilitationstrends der Genesung in den klinischen, funktionellen und Lebensqualitätsbereichen. Ein Rehabilitationstrend ist eine Hauptkomponente, die die Korrelationen zwischen den Veränderungen der Ergebnisse bei jeder Therapie quantifiziert.

Schlussfolgerungen: Diese Ergebnisse stellen die traditionelle Betonung von RCTs auf die Verwendung eines einzigen primären Ergebnismaßes in Frage, um rehabilitative Reaktionen zu vergleichen, die von Natur aus mehrdimensional sind. Dieser alternative Ansatz und die Interpretation der Ergebnisse von RCTs können zu wirksameren Therapien führen, die auf die mehrdimensionalen Mechanismen der Genesung abzielen.


Tanzen, Staubsaugen, Lernen: Was kommt als nächstes für Roboter und ihre Schöpfer?

Robotik ist vielleicht die seltsamste der harten Wissenschaften.

Es ist unglaublich alt: Chinesische Handwerker stellten im 10. Jahrhundert v. Chr. humanoide Figuren her, die singen und tanzen konnten. Alexandrinische Ingenieure bauten Automaten, die in Theatern und religiösen Zeremonien verwendet wurden, sowie Spielzeug für die Reichen. Araber nahmen die griechische Roboterwissenschaft und fügten praktische Anwendungen hinzu. Im 12. Jahrhundert baute ein muslimischer Ingenieur namens Ismail Al-Jazari eine Kellnerin, die Getränke servieren konnte.

Es ist unglaublich schwer: Eine humanoide Maschine zu entwickeln, die eigenständig denken und arbeiten kann, ist noch lange nicht abgeschlossen. Menschen werden auf dem Mars leben, lange bevor wir einen Roboter sehen, wie wir ihn in den Filmen sehen. Robotiker scherzen, dass Raketenwissenschaft im Vergleich zur Robotik ein Kinderspiel ist, und sie haben Recht. Die Abraham Lincoln Audio-Animatronic in Disneyland, die die Gettysburg-Adresse rezitiert, ist im Grunde das Feld – und das gibt es seit 1964.

Es fordert die Philosophie heraus: Robotik stellt grundlegende Fragen zum Wesen des Menschen. Robotiker müssen ihren Maschinen Dinge beibringen, die Menschen nicht einmal Kindern beibringen, weil Kinder durch Beobachtung viel selbst lernen – was Roboter nicht können.

Diese Woche vor hundert Jahren wurde ein Theaterstück des tschechischen Schriftstellers Karel Čapek mit dem Titel "R.U.R." debütierte am 25. Januar. Es führte das Wort "Roboter" in die Welt ein. Das Drama spielt in einer Fabrik, in der künstliche Menschen hergestellt werden. (Die Roboter revoltieren, wie so oft in der Populärkultur.)

In dieser Geschichte werden wir uns ansehen, wo Roboter heute stehen, was die Zukunft des Feldes ist und welche Hindernisse im Weg liegen. Die Arizona State University hat eine Vielzahl von Mitarbeitern, die in 25 Labors an Facetten der Robotik arbeiten, darunter künstliche Intelligenz, Rehabilitation, Exoskelette, faltbare Roboter, kollektives Verhalten, Mensch-Roboter-Kollaboration, Gehirn-Maschine-Schnittstellen und mehr.

Sie sind Maschinenbauingenieure, Elektroingenieure, Informatiker, Angewandte Psychologen und Human Systems Engineers. Fragen Sie die meisten von ihnen und sie werden sagen, dass sich alles überschneidet.

Schon vor den arabischen, griechischen und chinesischen Automaten tauchten Roboter und Arbeitsmaschinen in der antiken Mythologie auf. Die Idee, mechanische Faksimiles von sich selbst zu erschaffen, hat die Menschen schon sehr lange gefesselt. Wieso den?

Heni Ben Amor leitet das Interactive Robotics Laboratory an der ASU. Ursprünglich wollte er Animator werden und lebensechte Charaktere auf der Leinwand erschaffen. Aber in der Schule arbeitete er mit Robotern. „Ich habe eine ganz andere Richtung eingeschlagen“, sagt er.

Jetzt studiert er künstliche Intelligenz, maschinelles Lernen, Mensch-Roboter-Interaktion, Roboter-Vision und automatische motorische Fähigkeiten. Er hat als Principal Investigator mehrere internationale und nationale Projekte geleitet, darunter Projekte für die NASA, die National Science Foundation, Intel, Daimler-Benz, Bosch, Toyota und Honda. Vor zwei Jahren erhielt er den NSF CAREER Award – die prestigeträchtigste Auszeichnung der Organisation zur Förderung des wissenschaftlichen Nachwuchses.Sechs Assistenzprofessoren und ein außerordentlicher Professor an der ASU, alle in Robotik, haben den Preis gewonnen.

„Ich denke, Menschen haben diese intrinsische Motivation, Dinge zu erschaffen“, sagte Ben Amor. „Und für viele von uns ist es das Markenzeichen dessen, was wir erreichen können. … Sicherlich scheint dieser Drang, etwas zu schaffen, das uns ähnlich ist, angeboren. Es ist nicht etwas, das wir in den letzten paar hundert Jahren erfunden haben.“

Video von Deanna Dent/ASU Now

Ben Amor spekuliert, dass es der gleiche Impuls ist, der die frühen Menschen dazu veranlasste, die Wände in Höhlen zu bemalen.

„Das tschechische Spiel ist ein Meilenstein in einem langen Entwicklungsbogen“, sagte er und zitierte die frühen Erbauer von Automaten. „Die Markierung des Wortes ist also nicht unbedingt der Anfang. Es ist eine Art Fokussierung, die all diese Ideen zusammenbringt und sie auf diese fünf Buchstaben eingrenzt. Und ich denke, darum geht es. Es konzentrierte sich irgendwie alles auf diese fünf Buchstaben und dann nahmen die Leute diese fünf Buchstaben und schufen daraus wieder diese Fülle von vielen, vielen verschiedenen Ideen. Es hat es also irgendwie konzeptualisiert und ein bisschen klarer gemacht, dass dahinter eine Domäne steckt.“

Vor einigen Wochen zog ein Video von Robotern, die von Boston Dynamics erstellt wurden, die Aufmerksamkeit auf sich, die zu „Do You Love Me?“ von The Contours tanzten. Es war beeindruckend und zeigte die Geschicklichkeit der Roboter und wie sich physische Systeme verbessern. Mikroprozessoren und Rechenleistung sind sprunghaft gewachsen. Das Video hat fast 27 Millionen Aufrufe.

Aber obwohl es beeindruckend ist, sind die Roboter von Boston Dynamics im Wesentlichen ausgeklügelte Marionetten. Im Grunde unterscheiden sie sich nicht von Al-Jazaris Kellnerin aus dem 12. Jahrhundert oder Walt Disneys Abe Lincoln. Sie können nur eines tun.

Hier ist, was sie nicht tun können: Spülen Sie eine Spüle mit schmutzigem Geschirr mit feinen Porzellantellern, Kristallgläsern und einer Lasagnepfanne, die in gebackenem Crud gebacken ist, ohne das meiste davon zu zerbrechen. Sie können nicht in irgendein Haus gehen und ein Wasserleck reparieren. Sie könnten ein Paket liefern, aber nicht bis zur Haustür gehen und Sie wissen lassen, dass es angekommen ist. Und sie können keine eigenen Entscheidungen treffen.

Menschen und Roboter

„Das Gebiet der Robotik im Allgemeinen steckt noch in den Kinderschuhen und insbesondere die Mensch-Roboter-Interaktion steckt noch in einem sehr frühen Stadium“, sagt Wenlong Zhang, Assistenzprofessor für Systems Engineering und Direktor des Robotics and Intelligent Systems Laboratory. Zhang und sein Team arbeiten an Design und Steuerung fortschrittlicher Robotersysteme, einschließlich tragbarer Hilfsroboter, Softroboter und unbemannter Luftfahrzeuge. Sie arbeiten auch an der Problematik der Mensch-Roboter-Interaktion.

Derzeit sitzen die meisten Arbeitsroboter den ganzen Tag in Fabriken und erledigen sich wiederholende Aufgaben. Sie haben nicht viel Intelligenz. Wenn Sie jemals einen Industrieroboter bei der Arbeit gesehen haben, wissen Sie, dass es nichts ist, an das Sie während des Betriebs herankommen möchten.

„Bei vielen dieser konventionellen Roboter muss man ihnen buchstäblich die Flugbahn und die vielen neuen Anwendungen mitteilen, die wir betrachten“, sagte Zhang. "Es ist nicht möglich. … Roboter müssen nicht nur hohe Präzision und Leistung haben, sondern auch anpassungsfähig sein. Sie müssen von Natur aus sicher sein. Sie müssen die Absichten ihrer Benutzer verstehen. Die Mensch-Roboter-Interaktion ist also im Grunde ein sehr großes Dach, das diese Themen abdeckt.“

Maschinelle Intelligenz ist ein weites Feld, an dem viele Leute arbeiten. Das ultimative Ziel ist es, sicherzustellen, dass Roboter zuverlässige Partner sein können. Der Knotenpunkt des Problems liegt darin, Maschinen Dinge beizubringen, die Eltern ihren Kindern nicht einmal explizit beibringen, Dinge, die sie selbst lernen, wie zum Beispiel sprechen oder Dinge aufnehmen.

„Deshalb versuchen viele Forscher, insbesondere in den Bereichen Psychologie und maschinelles Lernen, zu verstehen, wie Säuglinge lernen, und versuchen, dies auf Roboter anzuwenden“, sagte Zhang. „Das ist ein herausforderndes Problem. … Roboter arbeiten heute mit Menschen zusammen, und Menschen sind von Natur aus anpassungsfähig und stochastisch. … Sagen wir, wenn wir dieses Gespräch noch einmal führen, werde ich wahrscheinlich nicht genau dasselbe sagen. … Wenn Sie daran denken, dass Roboter Ihr Partner sind, müssen sie das verstehen.“

Informatik-Masterstudent Michael Drolet umarmt den „Umarmungsroboter“ am 23.10.2020 im Interactive Robotics Lab. Im Labor von Heni Ben Amor stehen maschinelles Lernen, Mensch-Roboter-Interaktion, Greifmanipulation und Roboterautonomie mit dem Umarmungsroboter im Fokus "Lernen", um mit Menschen zu interagieren. Foto von Deanna Dent/ASU Now

Womit kann ich Ihnen behilflich sein?

Fragen Sie Ben Amor, wie lange es dauert, einen Roboter zu programmieren.

„Zuerst muss man promovieren“, sagte er.

Erinnern Sie sich an frühe PCs? Sie waren ein Bär beim Einrichten und Betreiben. Das frühe Internet war nicht viel besser. Dieser Videoplayer funktionierte mit diesem Browser nicht und umgekehrt. Niemand surfte im Netz. Sie sind irgendwie darin herumgestolpert. Heute sind Personalcomputer (und Tablets und Smartphones) ein Kinderspiel. Sie müssen nicht wissen, wie sie funktionieren.

Aber bei Robotern und künstlicher Intelligenz muss man heute Informatiker sein. Manchmal reicht selbst das nicht.

Siddharth Srivastava ist Assistenzprofessor und Direktor des Labors für autonome Agenten und intelligente Roboter. Srivastava und sein Team erforschen Möglichkeiten, das Verhalten autonomer Agenten zu berechnen, von theoretischen Formulierungen bis hin zu ausführbaren Systemen. Sie verwenden mathematische Logik, Wahrscheinlichkeitstheorie, maschinelles Lernen und Konzepte von Zustands- und Handlungsabstraktionen.

„Studenten, die in unser Labor eintreten, müssen ein oder zwei Jahre Ausbildung durchlaufen, bevor sie die Arbeit eines Roboters tatsächlich ändern können“, sagte Srivastava. „Tatsächlich haben wir oft Bachelor-Studenten – oder sagen wir, Master-Studenten im ersten Jahr, die bereits ihr Bachelor-Studium in Informatik gemacht haben. Nachdem sie das alles wussten, dauert es etwa ein Jahr, bis sie den Roboter selbst konfigurieren können eine neue Aufgabe. Es ist einfach, auf Replay zu klicken und es wiederholen zu lassen, wofür es programmiert wurde. Aber das ist nicht das Versprechen von KI, oder? Das Versprechen von KI ist, dass Sie ihr sagen können, was Sie wollen, und sie wird diese Dinge auf sichere Weise für Sie erledigen. … Um diese Anleitung zu geben, braucht man tatsächlich viel Fachwissen.“

Srivastava beschäftigt sich in seinem Labor mit zwei Forschungsrichtungen.

Erstens, wie kann Autonomie effizienter gestaltet werden. Sie haben einen Haushaltsroboter und müssen ihm eine neue Aufgabe geben. Welche Algorithmen brauchen Sie, um es besser zu machen?

Im zweiten haben Sie einen KI-Roboter oder einen autonomen Assistenten. Sie wissen nicht viel darüber. (Srivastava geht davon aus, dass dies die überwiegende Mehrheit der Benutzer sein wird.) „Wie interagieren Sie damit?“ er sagte. „Wie ändern Sie, was es tut? Wie berichtigen Sie es? Wie verstehst du, was es tut?“

Er hat herausgefunden, dass in beiden Dimensionen einige gängige mathematische Werkzeuge, die sich mit Abstraktion und Hierarchien befassen – und wie sie verwendet werden – dabei helfen, diese Probleme zu lösen.

„Auf der Berechnungsseite untersuchen wir daher, wie wir hierarchische Abstraktionen verwenden können, um KI-Systemen die autonome Lösung komplexer Probleme zu erleichtern“, sagte er.

Ein Ei zu braten ist für einen Roboter nicht zu schwer, aber es würde ernsthafte Probleme geben, wenn Sie ihn nur bitten würden, Ihnen Frühstück zu machen. Wo fängt es an? Was macht es zuerst?

Subbarao Kambhampati hat sich während seiner gesamten Karriere mit der Planung von Roboteraufgaben beschäftigt. Er ist Informatiker mit Expertise in künstlicher Intelligenz, automatisierter Planung und Informationsintegration. Seit 10 Jahren beschäftigt er sich damit, wie Roboter mit Menschen zusammenarbeiten können.

Wenn Sie einen Flug online buchen, bietet Ihnen der von Ihnen verwendete Bot (den Kambhampati als "ein Stück Code, das auf dem Bürgersteig im Internet lebt" bezeichnet) eine Reihe von Zeiten und Preisen an. Was wäre, wenn es mehr tun würde? Was wäre, wenn es das, was Sie wollen, vorwegnahm und Ihnen half, anstatt nur eine Anfrage anzunehmen?

„Im Allgemeinen besteht meine Arbeit darin, diese Roboter, unsere Bots, zu unseren Partnern und nicht nur zu unseren Werkzeugen zu machen“, sagte er.

Robotern beizubringen, sich durch viele Simulationen selbst beizubringen, rationalisiert die Aufgabenplanung. Kinder tun dies, indem sie alles aufnehmen, was sie um sich herum sehen. Irgendwann finden sie heraus: Das ist schwer, das ist glatt, diese brechen. Niemand lehrt sie diese Dinge ausdrücklich.

Die Roboter von Boston Dynamics lernten das Springen nicht, indem sie alleine eine Million Sprünge machten. Davon spricht Kambhampati.

„Vieles, was sich in den letzten 10 Jahren in der KI im Allgemeinen verändert hat, sind diese stillschweigenden Wissensaufgaben, die wir Robotern nicht mitteilen konnten, denn im Grunde wäre alles, was wir tun, nur eine Annäherung, und es ist irgendwie viel besser, dies zu bekommen Roboter, der durch einfaches Ausprobieren und so viel Manipulation im Moment wie das Greifen von selbst lernt“, sagte Kambhampati. „Das ist also tatsächlich eine interessante Änderung in der Forschung. Viel mehr Robotikarbeit konzentriert sich jetzt im Wesentlichen auf Lerntechniken und Objektmanipulation.“

Professor Tom Sugar arbeitet mit Doktorand Jason Olson zusammen und zeigt am 20. Juli 2018, wie der Roboterknöchel "Sparky" funktioniert. Sugar und seine Studenten arbeiten an Robotern, die menschliche Bewegungen verbessern und als Werkzeuge zur Rehabilitation von Schlaganfallpatienten oder Verletzung. Foto von Deanna Dent/ASU Now

Menschen mit Robotik verbessern

Tom Sugar ist Robotiker und Direktor des Human Machine Integration Lab, das an Roboterorthesen, Prothesen und tragbaren Robotern für mehr Mobilität arbeitet. Um deine Frage zu beantworten, sagt Sugar nein, es wird nie einen Iron Man Anzug geben, er wäre zu schwer und zu teuer.

Aber in den nächsten 10 Jahren wird die menschliche Augmentation einen Boom erleben. Exoskelette werden Lagerarbeiter unterstützen.

„In meinem Bereich versuchen wir, Robotergeräte zu bauen, die den Menschen helfen“, sagte Sugar. „Wenn Sie in der Logistik heben müssen oder Ihre Arme über den Kopf schieben müssen und Sie eine Schulter-, Nacken- oder Rückenverletzung haben, versuchen wir, Geräte zu bauen, die die Arbeit einfacher und weniger machen ermüdend."

Sugar sieht Roboter als Werkzeuge. Pferde ließen die Menschen immer weiter und schneller reisen, dann wurden sie durch Autos ersetzt. Robotik wird das Leben einfacher machen, indem sie Menschen mit künstlicher Intelligenz unterstützt. Stellen Sie sich einen Flugzeugmechaniker vor, der an einem Triebwerk arbeitet und so etwas wie eine Google-Brille trägt.

„Es werden Informationen angezeigt und Ihnen gesagt: ‚Hey, wissen Sie, wenn das falsch ist, warum überprüfen Sie dann nicht diese fünf Dinge?‘“, sagte Sugar. "Und dann kann der Mensch eine Einschätzung über diese Dinge abgeben."

Künstliche Intelligenz kann Menschen im Schach schlagen, aber wenn man einen Menschen mit KI kombiniert, werden beide besser.

„Außerdem kann der Mensch klügere und bessere Entscheidungen treffen“, sagte Sugar. „Und ich denke, das ist das positive Ergebnis. Ich denke, das werden wir in Zukunft sehen.“

Vorausschauen

Wie wird die Zukunft von Robotern aussehen – etwas, das für jeden universell zugänglich ist oder etwas auf bestimmte Personen oder Benutzerklassen zugeschnitten ist?

„Ich denke, was wir sehen könnten, ist eher aufgabenspezifisch als personenspezifisch, weil Menschen eine große Varianz in ihren Grenzen, Fähigkeiten, Vorlieben und ähnlichen Dingen haben“, sagte Srivastava. „Aber es gibt weniger Aufgaben, bei denen es einfach ist, einen Roboter an eine Aufgabe anzupassen. Zum Beispiel Roboterstaubsauger. Sie sind nicht personalisiert, aber speziell auf die Aufgabe des Staubsaugens zugeschnitten.“

Eines der Dinge, die die KI-Community intuitiv gemacht hat, besteht darin, KI-Systeme sicher, effizient und benutzerfreundlich zu machen. Das fehlende Element war die Operatorklasse. Srivastava sagte, dass Systeme entwickelt werden müssen, die einfach zu erlernen sind.

"Für wen ist es einfach zu bedienen?" er hat gefragt. „Man könnte durchaus vernünftigerweise sagen, dass ein KI-System in einer sehr engen Situation eingesetzt wird. Daher sind die Bediener, die für die Verwendung qualifiziert sind, nur Personen mit dieser Zertifizierungsstufe. Das ist in manchen Fällen in Ordnung, aber ich denke, wir müssen Systeme entwickeln, die nicht nur einfach zu bedienen, sondern auch leicht zu erlernen sind. … Dies würde Ihnen ermöglichen, wenn Sie ein KI-System und einen unerfahrenen Benutzer haben, dann wäre das KI-System in der Lage, den Benutzer im laufenden Betrieb so zu schulen, dass der Betrieb sicher bleibt. Ich denke, das ist ein gutes Ziel für uns, wenn wir weitermachen.“

Foto oben: Der Kuka-Roboterarm geht am 17. Mai 2018 im Innovation Hub auf dem Polytechnic Campus auf Herz und Nieren. Foto: Charlie Leight/ASU Now


Ist Robotik ein Teil der KI? Ist KI Teil der Robotik? Was ist der Unterschied zwischen den beiden Begriffen? Wir beantworten diese grundlegende Frage.

Robotik und künstliche Intelligenz (KI) dienen ganz unterschiedlichen Zwecken. Die Leute verwechseln sie jedoch oft.

Viele Leute fragen sich, ob Robotik eine Teilmenge der künstlichen Intelligenz ist. Andere fragen sich, ob sie dasselbe sind.

Seit der ersten Version dieses Artikels, die wir bereits 2017 veröffentlicht haben, ist die Frage noch verwirrender geworden. Die zunehmende Verwendung des Wortes "Roboter" in den letzten Jahren für jede Art von Automatisierung hat noch mehr Zweifel daran aufkommen lassen, wie Robotik und KI zusammenpassen (mehr dazu am Ende des Artikels).

Es ist an der Zeit, die Dinge ein für alle Mal richtigzustellen.


Schau das Video: AUTOMATICA - Robots Vs. Music - Nigel Stanford (August 2022).