Ihr Abonnement des Genesys-Blogs wurde bestätigt!
Please add genesys@email.genesys.com to your safe sender list to ensure you receive the weekly blog notifications.
Abonnieren Sie unseren kostenlosen Newsletter und erhalten Sie alle Updates zum Blog bequem in Ihre E-Mail-Inbox.
Diese Meldung nicht mehr anzeigen.
Die künstliche Intelligenz (KI), wie wir sie heute kennen, hat in den letzten 50 Jahren viele Phasen durchlaufen – von der Entwicklung des ersten Bots mit 200 Codezeilen im Jahr 1966 bis zur allgemeinen Nutzung von KI bei uns zu Hause mit Amazon Alexa und Siri. So faszinierend diese Durchbrüche auch sein mögen, wir haben auch die vielfältigen Risiken der KI miterlebt. Glücklicherweise erfolgt in unserer Wirtschaft eine schrittweise Anpassung der KI durch Partnerschaften und Vorschriften, um eine vernünftige und ethische Bereitstellung und Nutzung von KI-gestützten Anwendungen zu gewährleisten.
Eine sehr kurze Zeitleiste der KI
1966: ELIZA, der erste jemals entwickelte Chatbot, wird mit 200 Codezeilen programmiert.
2010: Apple entwickelt Siri für iOS.
2014: Amazon Alexa kommt auf den Markt.
2015: Machbarkeitsstudien und erste KI-Anwendungen schärfen das Bewusstsein für ethische Bedenken in Bezug auf KI.
2016: Google DeepMind besiegt im März 2016 Lee Sedol in einem Go-Turnier; große Technologieunternehmen konsolidieren ihre Positionen und Richtlinien; im September wird die Initiative Partnership on AI gegründet.
2018: Mit der Einführung grundlegender Vorschriften zum Datenschutz (die DSGVO tritt im Mai in Kraft) positionieren sich die Unternehmen in ihrem Datenumfeld und gründen verschiedene Ausschüsse; im November wird die „AI Ethics Initiative“ von Genesys gegründet.
2019: Steve Wozniak, einer der Mitbegründer von Apple, berichtet, dass die Apple Card Frauen bei der Beantragung von Krediten diskriminiert. Dies zeigt, dass wir, obwohl die KI inzwischen für die breite Öffentlichkeit verfügbar ist, noch nicht herausgefunden haben, wie wir sie mit den sozialen Verhaltensregeln vereinbaren können, die wir für die Allgemeinheit und in der Gesellschaft als akzeptabel definieren. Es zeigt außerdem, dass wir angesichts der zunehmenden Anzahl von Datenanbietern, die auf den Markt kommen, die Daten untersuchen müssen, die zum Schulen der Algorithmen verwendet werden.
2020 und folgende Jahre: Es muss weiterhin Verantwortung übernommen werden, um ethische Metriken und Produkte zu Daten und KI einzuführen, die Voreingenommenheit erkennen und verhindern.
Weitere Partnerschaften zur Vermeidung KI-bezogener Risiken
Institutionen: Da KI-gestützte Tools branchenübergreifend allgegenwärtig werden (Chat-Bots und Voice-Bots im Kundenservice, Bilderkennung in Warenlagern, autonome Autos), arbeiten Unternehmen und öffentliche Institutionen zusammen, um Schutzmaßnahmen gegen einen potenziellen Missbrauch der Technologie zu schaffen.
Die „Partnership on AI“ (KI-Partnerschaft), an der mehr als 80 Unternehmen aus allen Branchen beteiligt sind, oder der Council on the Responsible Use of AI (Rat für den verantwortungsvollen Einsatz von KI) der Bank of America und der Harvard Kennedy School sind nur zwei Beispiele für Partnerschaften, die in den letzten Jahren entstanden sind. Weitere Partnerschaften werden sich entwickeln, und im Jahr 2020 werden weitere Vorschriften hinzukommen.
Dateninfrastruktur: Es bilden sich weiterhin Partnerschaften, die auf eine Qualitätsverbesserung der Daten abzielen, auf die KI-Technologien zurückgreifen, zum Beispiel das Cloud Information Model (CIM) und die Open Data Initiative (ODI). Während diese Partnerschaften eher auf Daten ausgerichtet sind, die von verschiedenen Branchen (und Akteuren innerhalb einer ähnlichen Branche durch Datenstandardisierung) gemeinsam genutzt werden, können wir auch mehr Kontrolle von den beteiligten Interessengruppen erwarten. Diese verstärkte Kontrolle soll Einseitigkeiten reduzieren und die Risiken im Bereich der Datensicherheit und des Datenschutzes verringern. Derartige Partnerschaften spielen 2020 eine wichtige Rolle bei der Festlegung von Standards für alle Beteiligten zur Bereitstellung ethisch einwandfreier KI-Produkte.
Tool- und Produktentwicklungsinitiativen zur Minderung von KI-Risiken
Unternehmen wie Genesys beziehen nicht nur Stellung, um KI-Risiken zu bekämpfen, sondern sie implementieren auch Rahmenbedingungen und Tools für die Entwicklung transparenter und verantwortungsvoller KI-Produkte. Nachdem Genesys vor einem Jahr zum Thema KI-Ethik klar Position bezog, wurden kürzlich Einzelheiten bekannt, wie Genesys KI mit Hilfe von Produktanforderungsdokumenten (Product Requirement Documents, PRDs) auf ethische Weise umsetzt. Wir stellen auch Inhalte zur Verfügung, mit denen wir Agenten beim weltweiten technologischen Wandel begleiten.
Im Jahr 2020 werden branchenübergreifend weitere Tools und Richtlinien zur Entwicklung von Produkten mit nachvollziehbarem maschinellem Lernen bereitgestellt. Das Ethical Institute hat das Beschaffungs-Rahmenwerk AI-RFX Procurement Framework entwickelt, um ein Reifemodell für maschinelles Lernen zu umzusetzen, das den Responsible Machine Learning Principles (Grundsätzen für verantwortungsvolles maschinelles Lernen) für die Entwicklung von KI-Produkten folgt. Diese Rahmenwerke befassen sich nicht nur mit Einseitigkeiten, Bewertungen und datenbezogenen Risiken, sondern unterstützen auch Teams dabei, eine Strategie für die Versetzung von Mitarbeitern zu entwickeln und so die Auswirkungen der Automatisierung auf die Belegschaft zu mindern. Die Schulung und Sensibilisierung der KI-Ingenieure (sowohl intern als auch mit Drittanbietern) wird 2020 von zentraler Bedeutung sein.
Große Technologieunternehmen werden ebenfalls mehr in diese Prozesse investieren und Analyseprodukte auf den Markt bringen. So hat Facebook zum Beispiel Fairness Flow veröffentlicht, und Google hat das Tool „What If“ herausgebracht, um die Analyse von Einseitigkeiten zu prognostizieren und zu automatisieren und so eine ethische Produktentwicklung in der Branche durchzusetzen.
Regierungsbeteiligung im Bereich der KI-Ethik
Die staatlichen Vorschriften werden sich weiter mit der Durchsetzung einer nachvollziehbaren und transparenten KI befassen. Bereits heute schreibt die DSGVO für alle automatisierten Entscheidungen mit hohem Risiko ein „Recht auf Begründung“ vor. Dies ist einer der ersten rechtlichen Schritte hin zu einer ethischeren KI.
Regierungen werden eine größere Rolle bei der Ethik für Daten und KI spielen, sowohl bei der Schaffung des regulatorischen Umfelds, das zur Entwicklung einer ethischen KI erforderlich ist, als auch bei der Entwicklung und dem Austausch von Instrumenten, die speziell für KI-Produkte von Regierungsbehörden entwickelt werden.
Externe Audits von KI-Systemen werden in naher Zukunft für alle KI-Produkte erforderlich sein. Dies wird dazu beitragen, die wachsenden Befürchtungen in Bezug auf diese Technologie zu zerstreuen.
Folgen Sie der Genesys Blog-Serie zur KI-Ethik, um auf dem Laufenden zu bleiben und sich an der Diskussion zu beteiligen.
Oder kommen Sie zur CCW 2020 in Berlin, hören Sie sich die spannenden Vorträge an und diskutieren Sie aktuelle KI-Ethik Themen mit unseren Experten vor Ort.
Abonnieren Sie unseren kostenlosen Newsletter und erhalten Sie alle Updates zum Genesys-Blog bequem in Ihre E-Mail-Inbox.