·   · 4 posts
  •  · 14 friends

Das Geheimnis, um das Vertrauen in die Technik wieder aufzubauen: emotional intelligentere Menschen

https://www.fastcompany.com/90361952/rebuilding-trust-between-human-and-advanced-technology 

Aus meinen Gesprächen mit Branchenführern von Unternehmen wie Dell und Datenwissenschaftlern wie Jon Christiansen geht hervor, dass die Schließung der Vertrauenslücke und die Gewährleistung eines besseren Verständnisses der KI in unserer menschlichen Natur liegt.

[Foto: ROBYN BECK / AFP / Getty Images]

VON MEGHAN E. BUTLER8 MINUTEN LESEN

Es gibt eine soziale Wahrheit, die allgemein verstanden wird, aber schwer zuzugeben ist: Wir mögen nicht, was wir nicht vertrauen, und wir vertrauen nicht, was wir nicht verstehen.

Hierin liegt das modernste menschliche Dilemma - das Navigieren durch fortschrittliche Technologien, insbesondere das Nebeneinander von bahnbrechenden Entwicklungen, die die menschliche Erfahrung verbessern, mit den unbekannten Ergebnissen des Denkens von Maschinen und KI.

Um die Vertrauenslücke zwischen Menschen und fortschrittlichen Technologien besser zu verstehen und Lösungen zu finden, um sie zu schließen, habe ich Gespräche mit Branchenführern bei Unternehmen wie Dell und Datenwissenschaftlern wie Jon Christiansen geführt. Die Haupt-Imbissbuden sind nicht schockierend, aber enorm wichtig, weil sie ganz einfach tatsächlich gelöst werden können:

  • Die Vertrauenslücke ist das Ergebnis schlechter Kommunikationsstandards
  • Komplexe Technologien wie KI erfordern einen neuen Ansatz zur Vertrauensbildung
  • Die Verantwortung für die Vertrauensbildung liegt bei den Organisationsleitern

Am tiefsten wies jeder auf eine einfache Wahrheit hin, entweder direkt oder indirekt: Bei Technologien, die von Menschen für Menschen hergestellt wurden, liegt das Geheimnis zum Schließen der Vertrauenslücke in unserer Menschlichkeit - unserer emotionalen Intelligenz.

Nach Ansicht der Experten können KI-Führungskräfte hier Standards in ihren Organisationen und in der gesamten Branche festlegen, um gemeinsam die Vertrauenslücke zu schließen und ein besseres Verständnis und eine bessere Akzeptanz von KI zu gewährleisten.

BESTÄTIGEN SIE DIE VERTRAUENSLÜCKE

Der „Black Box“ -Effekt, bei dem Entscheidungen und Handlungen außer Sichtweite und jenseits des kollektiven Verständnisses getroffen werden, ist maßgeblich für diese Vertrauenslücke zwischen Menschen und fortschrittlichen Technologien verantwortlich. Was letztendlich bedeutet, dass die Vertrauenslücke das Ergebnis einer massiven Kommunikationsstörung ist.

„Wir vertrauen auf komplizierte Systeme. Künstliche Intelligenz wird als komplexes System angesehen, und das ist ein ganz anderes Tier “, sagte Olaf Groth, Gründer und geschäftsführender Gesellschafter von Cambrian AI und Mitautor von Solomons Code: Menschlichkeit in einer Welt der Denkmaschinen.

Groth erklärte, dass komplizierte Systeme sich insofern von komplexen Systemen unterscheiden, als es sich um hochentwickelte Konstruktionen handelt, für deren Verständnis menschliche Fachkenntnisse erforderlich sind, die jedoch größtenteils die Summe ihrer Teile darstellen. Wenn etwas Tragisches passiert, wie ein Flugzeugabsturz, kann es zu einem Problem innerhalb seines Systems dekonstruiert werden.

Komplexe Systeme lassen sich jedoch nicht auf ihre Einzelteile reduzieren und sind häufig eine Folge des Emergenzphänomens. Künstliche Intelligenz, ein komplexes System, ist ein Produkt der Entstehung. Die Teile verhalten sich nicht wie im Einzelfall und werden stark von externen Faktoren und Datensätzen beeinflusst. Dies lässt KI mysteriös und unvorhersehbar erscheinen und ist daher nicht vertrauenswürdig.

Indem organisatorisches Selbstbewusstsein demonstriert wird und zuerst die Befürchtungen vor dem Unbekannten anerkannt werden, können authentische Verbindungen zum menschlichen Vertrauen hergestellt werden. Das Vertrauen der Mitarbeiter in das Unternehmen ist die Aufgabe der Kommunikationsfunktion des Unternehmens in Zusammenarbeit mit seiner Führung.

SEIEN SIE TRANSPARENT ÜBER ABSICHTEN

Für diejenigen von uns außerhalb der heiligen Hallen der Innovation, von denen jedoch erwartet wird, dass sie ihre Produkte einführen, reicht es nicht aus, unser Vertrauen zu stärken, indem wir anerkennen, dass es fehlt. Auch unser Vertrauen muss erhalten bleiben, und dazu sind Klarheit und Transparenz erforderlich.

Machen Sie keine Fehler - Transparenz bedeutet nicht, Algorithmen oder Geschäftsgeheimnisse preiszugeben. Es bedeutet, unser Bedürfnis zu erfüllen, die Absichten und Überlegungen hinter der Technologie besser zu verstehen als die tatsächliche Mechanik.

Es reicht nicht aus, über tiefgreifende Überlegungen in der Entwicklung zu sprechen. IBM hat einen Standard erstellt, um die Verantwortlichkeit der AI-Ersteller zu gewährleisten. Er kann von jeder Organisation verwendet werden, die AI-Produkte entwickelt.

„Wir sollten mehr Informationen geben. Transparenz schafft Vertrauen in diejenigen, die die Technologie nutzen werden “, sagte Francesca Rossi, die weltweit führende KI-Ethikerin von IBM. "Wir sind der Meinung, dass die Leute [nach den Überlegungen der Entwickler] aufmerksamer und geschulter sein sollten. Unsere tägliche Ethik für künstliche Intelligenz umreißt sieben Anforderungen und die Fragen, die jedes AI-Teammitglied beantworten muss."

So wie Eltern für ihre Kinder verantwortlich sind, sollte jede Person, die für die Erziehung von KI verantwortlich ist, für ihre Schöpfung verantwortlich gemacht werden.

MENSCHEN NICHT ERSETZEN

Ängste abzubauen und Vertrauen aufzubauen, ist nicht einfach oder schnell, kann aber effizient geschehen, indem die Erklärbarkeit im Allgemeinen verbessert und fortschrittliche Technologien in Bezug auf die Verbesserung des Menschen positioniert werden - kleine Schritte für Technologien, die den Menschen helfen sollen, keine riesigen Sprünge zur Verringerung der Menschheit.

Nehmen wir zum Beispiel Dell. Es schafft eine auf den Menschen zentrierte KI, indem die Benutzer in ihrer optimalen Produktivitätszone gehalten werden. Die KI verbessert die Arbeitserfahrung mit einem digitalen Zwilling, der die täglichen Computeraktivitäten zum Erliegen bringen kann, sodass sich der Benutzer auf wichtigere Aufgaben konzentrieren kann, als beispielsweise die Verwaltung eingehender Junk-Mails.

"KI wird nicht erfolgreich sein, wenn es den menschlichen Stress nicht verringert, sie nicht beruhigt oder ihnen ermöglicht, die Erfahrung zu genießen", sagte John Roese, globaler CTO von Dell Technologies. „Einer unserer Erfolgsmaßstäbe ist die Feststellung, ob sich der menschliche Zustand verbessert hat oder nicht. Der beste Weg, dies zu messen, war die Beurteilung des Stressniveaus der Menschen, die es benutzen. Sind sie frustriert? Zeigen ihre biophysikalischen Marker an, dass sie mehr Energie aufwenden, um die Aufgaben zu erledigen, oder weniger? “

Erzählungen wie die von Dell, die uns dienen - und nicht die, die uns ersetzen - werden unser Vertrauen, unsere Aufmerksamkeit und unsere Akzeptanz in weitaus größerem Tempo verdienen, als diejenigen, die uns mitteilen, dass KI die Welt erobern wird.

Gabriel Fairman, Gründer und CEO von Bureau Works, einer AI-gesteuerten Plattform zur Steuerung der globalen Bereitstellung von Inhalten in Organisationen, ist ebenfalls der Ansicht, dass die Vertrauenslücke auf eine Kommunikationsherausforderung zurückzuführen ist. Die Lösung besteht darin, die Mitarbeiter darauf vorzubereiten, das Beste aus der KI herauszuholen, anstatt Angst davor zu haben.

„AI ist besonders nützlich, wenn Datenmuster in großen Datenmengen erkannt werden sollen. Das bedeutet nicht, dass es den Menschen bei der Analyse von Datensätzen ersetzen wird “, sagte er. "Es bedeutet, dass der Mensch dafür verantwortlich ist , die ethischen Auswirkungen dieser Datensätze, die indirekten Korrelationen zwischen Datensätzen und die von diesen Datensätzen gewünschten Aktionen zu verstehen."

Um dieses Verständnis zu erreichen, müssen sich die Kommunikationsstrategien der AI-Organisation auf Aufklärung und Erklärbarkeit konzentrieren, wobei die menschlichen Werte und die Verantwortung des Benutzers für die Ergebnisse hervorgehoben werden müssen - ein Ansatz, der weitaus wirkungsvoller ist als technische Besonderheiten.

FÖRDERN SIE DIE MENSCHLICHKEIT DER TECHNOLOGEN

Das kollektive „wir“, die externe Versammlung, die AI annehmen soll, ist nur eine Seite der Vertrauenslücke. Die andere Seite ist für die Technologen verantwortlich, die Genies, die für das Codieren, Programmieren und Entwickeln der Technologie verantwortlich sind - die menschlichen Vertreter der Technologie selbst.

Während „Soft Skills“ und andere Programme im Zusammenhang mit emotionaler Intelligenz den führenden Führungskräften zur Verfügung stehen, ist es nur langsam möglich, sie auf den Rest des Unternehmens abzustimmen, insbesondere auf jüngere Generationen und aufstrebende Führungskräfte.

"So wie wir bei der Arbeit sexuelle Belästigung trainieren, sollte es einen Lehrplan für emotionale Intelligenz geben, insbesondere für die Datenwissenschaftler, die die Modelle schreiben", sagt Lisa Seacat DeLuca, Direktorin von IoT & Digital Twin bei IBM.

Das gesamte Ziel von KI-Neuronalen Netzen - dem digitalen Äquivalent des menschlichen Gehirns - besteht darin, das zu replizieren, was unser Gehirn tut, jedoch mit Rechenleistung, die weit über unsere eigenen Fähigkeiten hinausgeht. KI als kognitive Argumentationstechnologie dreht sich alles um Verstehen, Lernen, Intelligenz und die Erzeugung von Erkenntnissen.

„Was Kognition und KI nicht tun, ist fühlen. Darin steckt keine Emotion “, sagte Dr. Jon Christiansen, Datenwissenschaftler und Chief Intelligence Officer von Sparks Research. „Das bedeutet nicht, dass Gefühle und Emotionen Antonyme der Erkenntnis sind, weil sie es nicht sind. Sie sind kostenlos. Füge die beiden zusammen und du hast einen wirklich mächtigen Mechanismus. Aber das fängt bei den Leuten auf der anderen Seite des Computers an. “

Der Mensch ist chaotisch, nicht linear und kann nicht optimiert werden. Dies ist ein ständiger Schmerzpunkt für die analytischsten und technischsten Denker. Anstatt sie zu bitten, Fragen über ihre Endbenutzer zu beantworten, sollten wir erwarten, dass sie Fragen über sich selbst beantworten können.

Jede Person, die für die Erstellung eines AI-Produkts verantwortlich ist und einen Schritt weiter geht als die von IBM im Rahmen ihrer täglichen Ethik für künstliche Intelligenz vorgeschlagenen Anfragen, sollte in der Lage sein, die folgenden Fragen zu beantworten:

  • Was glauben sie über die Technologie, die sie erschaffen?
  • Warum glauben sie das?
  • Was hoffen sie zu erreichen?
  • Wie würden sie die beabsichtigten Auswirkungen beschreiben?
  • Und vielleicht am wichtigsten, warum interessiert es sie?

Dies führt uns zum Kreislauf, zurück zum Selbstbewusstsein als der grundlegendsten Komponente der emotionalen Intelligenz. Und bis von Technologen erwartet wird, dass sie sich und ihre inhärenten Vorurteile verstehen und artikulieren, kann das Gehirn hinter AI nicht für die Konsequenzen ihrer Kreationen zur Verantwortung gezogen werden.

ZEIGEN SIE IHRE LEUTE, NICHT IHRE ALGORITHMEN

Cambria AI's Groth bot dies an: "In der technologiegetriebenen Wirtschaft geht die Macht an diejenigen, die über das technische Know-how und das finanzielle Kapital verfügen."

Und mit großer Kraft geht soziale Verantwortung einher.

Jede Organisation, die künstliche Intelligenz schafft und einsetzt, trägt die Last, sie zu vermarkten, ohne Geschäftsgeheimnisse preiszugeben. Und die emotional intelligenteste Lösung ist es, uns Ihre Mitarbeiter zu zeigen, nicht Ihre Algorithmen. Zeigen Sie uns, wer sie sind und, was vielleicht am wichtigsten ist, warum sie sich interessieren.

„Wenn [die Organisationen] ihre Technologen und Datenwissenschaftler aus der Dunkelheit herausholen und sie der Öffentlichkeit als tatsächliche Menschen präsentieren würden, würde dies zeigen, wie sie die Programmierung von KI als mehr als ein Ergebnis betrachten. Dass sie Menschen sind, die sich für andere Menschen entwickeln “, erklärte Aleksandra Przegalinska, Assistant Professor an der Kozminski University und AI Research Fellow an der MIT Sloan School of Management. "Dies würde dazu beitragen, die Black-Box-Mentalität zu beseitigen."

Der Mensch ist immer noch der Herzschlag der künstlichen Intelligenz. Obwohl unter uns Böswilligkeit herrscht, ist die Mehrheit der Technologen gut gemeint.

Genau wie die Technologie, die uns einschüchtert, haben wir alle die Fähigkeit, uns zu verändern. Entwickeln. Emotionaler werden für uns und die künstliche Intelligenz, die wir einführen.

Und die Verpflichtung, dies zu tun, wird uns allen signalisieren, dass wir keine Angst haben sollten.

Meghan E. Butler hat die Mission, eine emotional intelligentere Welt zu schaffen, indem sie Menschen dabei hilft, wichtige Echtzeitverbindungen herzustellen. Sie berät die C-Suite und andere Führungskräfte in Bezug auf die Internalisierung des Frameworks für emotionale Intelligenz und dessen Bereitstellung in ihren Teams. Sie schrieb eine Spalte in Inc. und trägt zurFast Company , Thrive Globale , Mus e und Rhapsody Magazin für United Airlines, unter anderem. Sie ist Mitbegründerin und Partnerin von Frame + Function , einer Kommunikationsberatung, und von MHS Systems zertifizierte Coachin für die Entwicklung emotionaler Intelligenz, die die psychometrischen Beurteilungen EQ-i 2.0 und EQ-i 360 verwaltet und trainiert.


Comments (0)
Info
Category:
Created:
Updated: