
Da KI immer stärker in unser tägliches Leben integriert wird, ist es unsere Pflicht, sie zum Nutzen der Menschen und der Gesellschaft überlegt und verantwortungsvoll einzusetzen. Ein prinzipienfester Ansatz für verantwortungsvolle KI wird für jede Organisation unerlässlich sein, wenn diese Technologie reift. Wenn Technik- und Produktverantwortliche verantwortungsvolle KI-Praktiken und -Werkzeuge einführen wollen, stehen sie vor mehreren Herausforderungen: Sie müssen herausfinden, welcher Ansatz für ihr Unternehmen, ihre Produkte und ihren Markt am besten geeignet ist.
Wir freuen uns, heute auf unserer Azure-Veranstaltung " Put Responsible AI into Practice" neue Ressourcen und Tools vorstellen zu können, die Kunden auf diesem Weg unterstützen. Dazu gehören auch Richtlinien für Produktverantwortliche, die von Microsoft und der Boston Consulting Group (BCG) gemeinsam entwickelt wurden. Diese Richtlinien sind zwar unabhängig von Microsofts eigenen Grundsätzen und Prozessen für verantwortungsvolle KI, sollen aber als Leitfaden für eine verantwortungsvolle KI-Entwicklung während des gesamten Produktlebenszyklus dienen. Außerdem führen wir ein neues Dashboard für verantwortungsvolle KI für Datenwissenschaftler und -entwickler ein und bieten einen Einblick, wie Kunden wie Novartis verantwortungsvolle KI in die Praxis umsetzen.
Einführung von zehn Leitlinien für Produktmanager zur verantwortungsvollen Implementierung von KI
Obwohl die überwiegende Mehrheit der Menschen an die Bedeutung verantwortungsvoller KI glaubt, sind sich viele Unternehmen nicht sicher, wie sie die so genannte "Responsible AI Gap" zwischen Prinzipien und konkreten Maßnahmen überwinden können. Tatsächlich überschätzen viele Unternehmen ihren Reifegrad in Sachen verantwortungsbewusster KI, was zum Teil daran liegt, dass ihnen nicht klar ist, wie sie ihre Grundsätze in die Praxis umsetzen können.
Um diesen Bedarf zu decken, haben wir gemeinsam mit BCG die "Zehn Leitlinien für Produktmanager zur verantwortungsvollen Implementierung von KI" entwickelt - eine neue Ressource, die technischen Führungskräften eine klare, umsetzbare Anleitung bietet, um Produktteams bei der Bewertung, Entwicklung und Validierung verantwortungsvoller KI-Systeme in ihren Unternehmen zu unterstützen.
"Ethische KI-Grundsätze sind notwendig, aber nicht ausreichend. Unternehmen müssen weiter gehen, um greifbare Veränderungen in der Art und Weise zu schaffen, wie KI-Produkte entwickelt und gebaut werden", sagt Steve Mills, Chief AI Ethics Officer, BCG GAMMA. "Das Asset, das wir gemeinsam mit Microsoft entwickelt haben, wird Produktverantwortliche in die Lage versetzen, ihre Teams zu einer verantwortungsvollen Entwicklung zu führen und proaktiv Risiken und Bedrohungen zu identifizieren und zu mindern."
Die zehn Leitlinien sind in drei Phasen gegliedert:
- Bewerten und vorbereiten: Bewerten Sie die Vorteile des Produkts, die Technologie, die potenziellen Risiken und das Team.
- Entwerfen, bauen und dokumentieren: Überprüfen Sie die Auswirkungen, besondere Überlegungen und die Dokumentationspraxis.
- Validierung und Unterstützung: Wählen Sie die Testverfahren und den Support, um sicherzustellen, dass die Produkte wie vorgesehen funktionieren.
Mit dieser neuen Ressource freuen wir uns darauf, zu sehen, wie mehr Unternehmen aus allen Branchen verantwortungsvolle KI in ihren eigenen Organisationen einführen.
Einführung eines neuen Responsible AI Dashboards für Datenwissenschaftler und Entwickler
Die Umsetzung ethischer Grundsätze wie Fairness und Transparenz in KI-Systemen ist eine der größten Hürden bei der Skalierung von KI. Aus diesem Grund haben unsere Entwicklungsteams verantwortungsvolle KI-Funktionen in Azure-KI-Dienste wie Azure Machine Learning integriert. Diese Funktionen sollen Unternehmen dabei helfen, ihre KI-Systeme unter Berücksichtigung von Fairness, Datenschutz, Sicherheit und anderen verantwortungsvollen KI-Prioritäten aufzubauen.
Wir freuen uns, heute das Responsible AI (RAI) Dashboard vorstellen zu können, das Datenwissenschaftlern und Entwicklern hilft, KI-Daten und -Modelle besser zu verstehen, zu schützen und zu kontrollieren. Dieses Dashboard enthält eine Sammlung von verantwortungsvollen KI-Funktionen wie Interpretierbarkeit, Fehleranalyse, kontrafaktische und zufällige Schlussfolgerungen. Das RAI-Dashboard ist jetzt allgemein als Open Source verfügbar und läuft auf Azure Machine Learning. Es vereint die am häufigsten verwendeten Tools für verantwortungsbewusste KI in einem einzigen Workflow und einer visuellen Oberfläche, die es einfach macht, Fehler zu identifizieren, zu diagnostizieren und zu entschärfen.
Verantwortungsvolle KI in die Praxis umsetzen
Unternehmen aus verschiedenen Branchen arbeiten bereits mit den KI-Funktionen von Azure, darunter viele der verantwortungsvollen KI-Tools, die Teil des Responsible AI Dashboards sind.
Ein Beispiel ist Novartis, ein führendes, fokussiertes Arzneimittelunternehmen, das Anfang des Jahres seine acht Grundsätze für den ethischen Einsatz von KI bekannt gab. Novartis bettet KI bereits in die Arbeitsabläufe seiner Mitarbeiter ein und hat viele Beispiele in der gesamten Wertschöpfungskette, in denen KI im Tagesgeschäft eingesetzt wird. Da KI eine so wichtige Rolle bei der Umsetzung der digitalen Strategie des Unternehmens spielt, ist die verantwortungsvolle KI von Microsoft ein wesentlicher Bestandteil, um sicherzustellen, dass KI-Modelle verantwortungsvoll entwickelt und eingesetzt werden.
"Dieses KI-Dashboard ermöglicht es unseren Teams, die Genauigkeit und Zuverlässigkeit von KI-Systemen im Einklang mit unserem Rahmenwerk für die ethische Nutzung von KI zu bewerten, um sicherzustellen, dass sie für den beabsichtigten Kontext und Zweck geeignet sind, und um herauszufinden, wie sie am besten mit unserer menschlichen Intelligenz integriert werden können", so Nimit Jain, Head of Data Science, Novartis.
Ein weiteres Beispiel ist Philips, ein führendes Unternehmen der Gesundheitstechnologie, das Azure und das Fairlearn-Toolkit nutzt, um die allgemeine Fairness seiner maschinellen Lernmodelle zu verbessern und Verzerrungen abzuschwächen, was zu einem besseren Management des Wohlbefindens und der Pflege von Patienten führt. Und Scandinavian Airlines, ein Azure Machine Learning-Kunde, verlässt sich auf die Interpretierbarkeit in seiner Betrugserkennungsabteilung, um Modellvorhersagen zu verstehen und die Identifizierung verdächtiger Verhaltensmuster zu verbessern.
Haben Sie die digitale Veranstaltung verpasst? Laden Sie den Leitfaden und das Tool herunter
Während wir alle noch auf diesem Weg sind, glauben wir, dass diese neuen Ressourcen uns helfen werden, einen wohlüberlegten Schritt in Richtung einer verantwortungsvollen KI zu machen. Wenn Sie die Veranstaltung verpasst haben, sollten Sie sich die Aufzeichnung ansehen und die verfügbaren Ressourcen herunterladen. Lassen Sie uns gemeinsam mit Microsoft verantwortungsvolle KI in die Praxis umsetzen.