Im Rahmen von Microsoft 365 Copilot Projekten kommt immer die Frage der Transparenz auf. Microsoft hat mit dem Ziel den Kunden zu verstehen, wie unsere KI-Technologie funktioniert, welche Entscheidungen Systembesitzer treffen können, die die Leistung und das Verhalten des Systems beeinflussen, und wie wichtig es ist, das gesamte System zu betrachten, einschließlich der Technologie, der Menschen und der Umgebung. Wir werden dieses Dokument im Zuge der Weiterentwicklung des Dienstes weiter aktualisieren.

Übersetzung

Quelle: Transparency Note for Copilot for Microsoft 365 | Microsoft Learn

„Was ist eine Transparenznotiz?

Ein KI-System umfasst nicht nur die Technologie, sondern auch die Menschen, die es nutzen werden, die Menschen, die davon betroffen sein werden, und die Umgebung, in der es eingesetzt wird. Die Erstellung eines Systems, das für den vorgesehenen Zweck geeignet ist, erfordert ein Verständnis dafür, wie die Technologie funktioniert, welche Fähigkeiten und Grenzen sie hat und wie die beste Leistung erzielt werden kann. Die Transparenzhinweise von Microsoft sollen Ihnen helfen, zu verstehen, wie unsere KI-Technologie funktioniert, welche Entscheidungen Systembesitzer treffen können, die die Leistung und das Verhalten des Systems beeinflussen, und wie wichtig es ist, das gesamte System zu betrachten, einschließlich der Technologie, der Menschen und der Umgebung. Wir werden dieses Dokument im Zuge der Weiterentwicklung des Dienstes weiter aktualisieren.

Die Transparenzhinweise von Microsoft sind Teil eines umfassenderen Bestrebens von Microsoft, unsere KI-Grundsätze in die Praxis umzusetzen. Weitere Informationen finden Sie in den KI-Grundsätzen von Microsoft.

Die Grundlagen von Copilot für Microsoft 365

Einführung

Copilot für Microsoft 365 ist ein KI-gestütztes Produktivitätstool, das große Sprachmodelle (LLMs) verwendet und Daten in Microsoft Graph und Microsoft 365-Anwendungen und -Dienste integriert. Es funktioniert zusammen mit beliebten Microsoft 365-Anwendungen wie Word, Excel, PowerPoint, Outlook, Teams und mehr.

Copilot für Microsoft 365 verwendet eine Kombination von Modellen, die vom Azure OpenAI Service bereitgestellt werden. Dadurch können wir die spezifischen Anforderungen jeder Funktion – z. B. Geschwindigkeit, Kreativität – mit dem richtigen Modell abgleichen, sodass Copilot für Microsoft 365 in Echtzeit intelligente Unterstützung bieten kann, die es den Benutzern ermöglicht, ihre Kreativität, Produktivität und Fähigkeiten zu verbessern.

Weitere detaillierte Informationen zu den von OpenAI an Microsoft bereitgestellten LLMs finden Sie in der öffentlichen Dokumentation unter Models – OpenAI API.

Schlüsselbegriffe

Begriff Beschreibung
Benutzeraufforderung Eine Benutzeraufforderung ist der Text, der an Copilot für Microsoft 365 gesendet wird, um eine bestimmte Aufgabe auszuführen oder Informationen bereitzustellen. Ein Benutzer könnte beispielsweise die folgende Eingabeaufforderung eingeben: „Schreibe eine E-Mail, in der ich meinem Team zum Ende des Geschäftsjahres gratuliere.“
Verarbeitung Die Verarbeitung einer Benutzereingabeaufforderung in Copilot für Microsoft 365 umfasst mehrere Schritte, einschließlich verantwortungsvoller KI-Prüfungen, um sicherzustellen, dass Copilot für Microsoft 365 relevante und umsetzbare Antworten liefert.
Grundlage Die Grundlage bezieht sich auf den Prozess der Bereitstellung von Eingabequellen für die LLM im Zusammenhang mit der Benutzereingabeaufforderung. Indem Copilot für Microsoft 365 Zugriff auf Daten erhält, die als Eingabequellen verwendet werden können – z. B. Daten aus Microsoft Graph oder Bing –, kann Copilot für Microsoft 365 den Benutzern genauere, kontextrelevante Antworten liefern.
Microsoft Graph Microsoft Graph ist das Tor zu Daten und Informationen in Microsoft 365. Es enthält Informationen über die Beziehungen zwischen Benutzern, Aktivitäten und den Daten einer Organisation.
Microsoft Graph Connectors Microsoft Graph Connectors bieten eine Möglichkeit, Inhalte von externen Diensten in Microsoft Graph zu integrieren, sodass externe Daten intelligente Microsoft 365-Erfahrungen wie Microsoft Search und Copilot für Microsoft 365 unterstützen können.
Indizierung Microsoft verwendet sowohl die lexikalische als auch die semantische Indizierung von Microsoft Graph-Daten, um Antworten für Copilot für Microsoft 365 in Unternehmensdaten zu verankern. Bei der Indexierung werden Benutzereingaben interpretiert, um kontextbezogene relevante Antworten zu generieren. Weitere Informationen zur Indexierung finden Sie unter „Systemverhalten“.
Angereicherte Eingabeaufforderung Eine Eingabeaufforderung wird angereichert, wenn der vom Benutzer eingegebenen Eingabeaufforderung zusätzliche Anweisungen hinzugefügt werden, um Copilot für Microsoft 365 bei der Generierung einer spezifischeren und relevanteren Antwort zu unterstützen.
Inhalt von Interaktionen Der Begriff, der verwendet wird, um die Eingabeaufforderung des Benutzers und die Antwort von Copilot für Microsoft 365 auf diese Eingabeaufforderung zu beschreiben.
Large Language Model (LLM) Large Language Models (LLMs) sind in diesem Zusammenhang KI-Modelle, die auf großen Mengen von Textdaten trainiert werden, um Wörter in Sequenzen vorherzusagen. LLMs sind in der Lage, eine Vielzahl von Aufgaben auszuführen, wie z. B. Texterstellung, Zusammenfassung, Übersetzung, Klassifizierung und vieles mehr.
LLM-Antwort Der vom LLM als Antwort auf die Benutzeraufforderung generierte Inhalt, der an Copilot für Microsoft 365 zurückgegeben wird.
Nachbearbeitung Die Verarbeitung, die Copilot für Microsoft 365 durchführt, nachdem es eine Antwort vom LLM erhalten hat. Diese Nachbearbeitung umfasst zusätzliche Erdungsaufrufe an Microsoft Graph, verantwortliche KI, Sicherheits-, Compliance- und Datenschutzprüfungen.
Verantwortungsvolle KI: Die Richtlinien-, Forschungs- und Entwicklungspraktiken von Microsoft, die auf unseren KI-Prinzipien basieren und durch unseren Standard für verantwortungsvolle KI operationalisiert werden.


Erweiterungen: Erweiterungen sind Anwendungen, die von Microsoft und anderen Anbietern entwickelt wurden und von Benutzern und Organisationen installiert werden können, um Copilot für Microsoft 365 neue Fähigkeiten und Kenntnisse hinzuzufügen. Dazu gehören Web-Grundkenntnisse und die Bing-Suche. Weitere Informationen über die Nutzung von KI in Erweiterungen finden Sie direkt bei diesen Angeboten.


Red-Team-Tests: Techniken, die von Experten eingesetzt werden, um die Grenzen und Schwachstellen eines Systems zu bewerten und die Wirksamkeit geplanter Gegenmaßnahmen zu testen. Red-Team-Tests werden eingesetzt, um potenzielle Risiken zu identifizieren, und unterscheiden sich von der systematischen Messung von Risiken.

Fähigkeiten

Funktionen

Beschreibung der Funktion
Copilot in Word Copilot in Word gestaltet das Schreiben effizient und kreativ, sodass Benutzer Dokumente erstellen, zusammenfassen, verstehen, verfeinern und verbessern können. Benutzer können auch erweiterte Funktionen wie die Visualisierung und Umwandlung von Text in eine Tabelle nutzen. Zu den weiteren Funktionen gehören das Hinzufügen zu vorhandenen Eingabeaufforderungen, das Erstellen eines Dokuments durch Verweisen auf andere Dokumente und das Ermitteln von Informationen zu Dokumenten.

Weitere Informationen finden Sie unter „Häufig gestellte Fragen zu Copilot in Word“.
Copilot in PowerPoint Mit Copilot in PowerPoint können Benutzer eine neue Präsentation aus einer Eingabeaufforderung oder Word-Datei erstellen und dabei Unternehmensvorlagen nutzen. Die Chat-Funktion ermöglicht Zusammenfassungen und Fragen und Antworten, und mit der Light-Befehlsfunktion können Benutzer Folien und Bilder hinzufügen oder Formatierungsänderungen für die gesamte Präsentation vornehmen. PowerPoint-Dateien können auch für die Datengrundlage verwendet werden.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in PowerPoint.
Copilot in Excel Copilot in Excel unterstützt Benutzer mit Vorschlägen für Formeln, Diagrammtypen und Erkenntnissen über Daten in Tabellen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Excel.
Copilot in Outlook Copilot in Outlook hilft bei der Verwaltung des E-Mail-Postfachs und der effizienteren Erstellung wirkungsvoller Kommunikation. Copilot in Outlook kann einen E-Mail-Thread zusammenfassen und Aktionspunkte, Antworten und Folgetreffen vorschlagen. Außerdem kann er beim Verfassen einer E-Mail Länge und Ton anpassen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Outlook.
Copilot in Teams Copilot in Teams kann Gespräche rekapitulieren, wichtige Diskussionspunkte organisieren und wichtige Maßnahmen zusammenfassen. Benutzer können Antworten auf spezifische Fragen erhalten und sich über Dinge informieren, die sie in Besprechungen oder Chats verpasst haben

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Microsoft Teams.
Copilot in Loop Mit Copilot in Loop können Benutzer Inhalte erstellen, die durch direkte Bearbeitung oder Verfeinerung durch Copilot gemeinsam verbessert werden können.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Loop.
Copilot in Microsoft Stream Copilot in Microsoft Stream hilft dabei, Informationen aus jedem Video mit einem Transkript zu erhalten. Copilot in Stream kann eine Zusammenfassung des Videos bereitstellen, spezifische Fragen beantworten, schnell zu bestimmten Themen oder Diskussionspunkten springen und Handlungsaufforderungen identifizieren.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Stream.
Copilot in Whiteboard Copilot in Whiteboard hilft dabei, den Ideenfindungsprozess in Gang zu bringen, um Ideen zu generieren, zu kategorisieren und zusammenzufassen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Whiteboard.
Copilot in OneNote Mit Copilot in OneNote können Benutzer Pläne entwerfen, Ideen generieren, Listen erstellen und Informationen organisieren, um in der OneNote-App das Gesuchte zu finden.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in OneNote.
Microsoft Copilot mit Graph-gestütztem Chat Microsoft Copilot mit Graph-gestütztem Chat kombiniert die Leistungsfähigkeit großer Sprachmodelle mit dem Internet, Arbeitsinhalten und -kontext sowie anderen Apps, um Benutzern dabei zu helfen, Inhalte zu entwerfen, Versäumtes nachzuholen und Antworten auf Fragen über Eingabeaufforderungen zu erhalten.
Intelligente Suche Die intelligente Suche ermöglicht die Suche in Dataverse-Anwendungen wie Dynamics 365 Sales, Service und Finance & Operations in natürlicher Sprache.
Power Platform Connectors Power Platform Connectors ermöglichen Kunden den Zugriff auf Echtzeitdaten aus einer Sammlung von geschäftlichen und persönlichen Produktivitätsanwendungen in der Copilot for Microsoft 365-Umgebung.
Microsoft Graph Connectors Microsoft Graph Connectors ermöglichen Verbindungen zu externen Datenquellen, einschließlich bis zu 500 Elementen pro Copilot for Microsoft 365-Lizenz.
Microsoft Purview Microsoft Purview ist eine Lösung, die Unternehmen bei der Verwaltung und dem Schutz ihrer Daten unterstützt. Sie bietet eine einheitliche Plattform für Datenverwaltung, Informationsschutz, Risikomanagement und Compliance. Kunden können die Microsoft Purview-Funktionen, die durch die Microsoft-Abonnements der Kunden bereitgestellt werden (z. B. Microsoft 365 E3- oder E5-Abonnements), auf Copilot for Microsoft 365-Daten und -Interaktionen erweitern.

Systemverhalten

Copilot für Microsoft 365 verwendet eine Kombination von LLMs, um Inhalte zusammenzufassen, vorherzusagen und zu generieren. Zu diesen LLMs gehören vorab trainierte Modelle wie Generative Pre-Trained Transformers (GPT) wie GPT-4 von OpenAI, die für diese Aufgaben entwickelt wurden.

Die Funktionen, die Benutzer in Microsoft 365-Anwendungen sehen, erscheinen als zusätzliche Features, Funktionen und Eingabeaufforderungen. LLMs und proprietäre Microsoft-Technologien arbeiten in einem zugrunde liegenden System zusammen, das Menschen dabei unterstützt, sicher auf ihre Unternehmensdaten zuzugreifen, sie zu nutzen und zu verwalten.

Microsoft 365-Apps (wie Word, Excel, PowerPoint, Outlook, OneNote, Teams und Loop) arbeiten mit Copilot für Microsoft 365 zusammen, um Benutzer bei ihrer Arbeit zu unterstützen. So ist Copilot in Word beispielsweise darauf ausgelegt, Benutzer speziell beim Erstellen, Verstehen und Bearbeiten von Dokumenten zu unterstützen. In ähnlicher Weise unterstützt Copilot in den anderen Apps Benutzer im Kontext ihrer Arbeit innerhalb dieser Apps.
Microsoft Graph ist seit langem ein grundlegender Bestandteil von Microsoft 365. Es enthält Informationen über die Beziehungen zwischen Benutzern, Aktivitäten und den Daten einer Organisation. Die Microsoft Graph-API bringt mehr Kontext aus Kundensignalen in die Eingabeaufforderung ein, wie z. B. Informationen aus E-Mails, Chats, Dokumenten und Besprechungen. Weitere Informationen finden Sie unter „Überblick über Microsoft Graph“ und „Wichtige Dienste und Funktionen in Microsoft Graph“.
Microsoft Copilot mit Graph-gestütztem Chat ermöglicht es Kunden, Arbeitsinhalte und -kontext in die Chat-Funktionen von Microsoft Copilot einzubringen. Mit Graph-gestütztem Chat können Benutzer Inhalte entwerfen, Versäumtes nachholen und Antworten auf Fragen über offene Eingabeaufforderungen erhalten – alles sicher auf der Grundlage von Arbeitsdaten. Verwenden Sie Graph-gestützten Copilot auf vielen Oberflächen, einschließlich innerhalb von Microsoft Teams, auf Microsoft365.com und auf copilot.microsoft.com.
Der semantische Index ist ein Index, der aus Inhalten in Microsoft Graph generiert wird. Er wird verwendet, um die Verarbeitung von Benutzereingaben zu unterstützen und kontextbezogene Antworten zu generieren. Er ermöglicht es Organisationen, Milliarden von Vektoren (mathematische Darstellungen von Merkmalen oder Attributen) zu durchsuchen und verwandte Ergebnisse zurückzugeben. Der semantische Index ist so konzipiert, dass er den Sicherheitskontext einzelner Benutzer berücksichtigt und nur Inhalte anzeigt, auf die ein Benutzer zugreifen kann. Der semantische Index basiert auf dem umfassenden Ansatz von Microsoft in Bezug auf Sicherheit, Compliance und Datenschutz und berücksichtigt alle organisatorischen Grenzen innerhalb des Mandanten des Kunden. Weitere Informationen finden Sie unter „Semantischer Index für Copilot“.

Hier ist eine Erklärung, wie Microsoft Copilot für Microsoft 365 funktioniert:

Copilot für Microsoft 365 erhält eine Eingabeaufforderung von einem Benutzer in einer App, z. B. Word oder PowerPoint.
Copilot für Microsoft 365 verarbeitet dann die Eingabeaufforderung des Benutzers, wodurch die Spezifität der Eingabeaufforderung verbessert wird, um dem Benutzer zu helfen, Antworten zu erhalten, die für seine spezifische Aufgabe relevant und umsetzbar sind. Die Eingabeaufforderung kann Text aus Eingabedateien oder andere Inhalte enthalten, die von Copilot für Microsoft 365 mithilfe von Graph erkannt wurden, und Copilot für Microsoft 365 sendet diese Eingabeaufforderung zur Verarbeitung an das LLM. Copilot für Microsoft 365 greift nur auf Daten zu, auf die ein einzelner Benutzer bereits Zugriff hat, beispielsweise basierend auf vorhandenen rollenbasierten Zugriffssteuerungen von Microsoft 365.
Copilot für Microsoft 365 nimmt die Antwort vom LLM entgegen und verarbeitet sie nach. Diese Nachbearbeitung umfasst weitere Anfragen an Microsoft Graph, KI-Prüfungen wie Inhaltsklassifizierungen, Sicherheits-, Compliance- und Datenschutzprüfungen sowie die Befehlserzeugung.
Copilot für Microsoft 365 gibt die Antwort an die App zurück, wo der Benutzer die Antwort überprüfen und bewerten kann.

Die Daten werden während der Speicherung verschlüsselt und nicht zum Trainieren von LLMs der Azure OpenAI Service-Foundation verwendet, einschließlich der von Copilot für Microsoft 365 verwendeten. Weitere Informationen hierzu finden Sie unter „Daten, Datenschutz und Sicherheit für Microsoft Copilot für Microsoft 365“.

Erweiterbarkeit und Anpassung

Copilot für Microsoft 365 bietet Funktionen, die Benutzern helfen, ihre Produktivität und Kreativität zu steigern. Dank seiner Anpassungsfähigkeit kann es an die individuellen Bedürfnisse verschiedener Organisationen angepasst werden. Die Möglichkeit, seine Funktionen durch Erweiterungen zu erweitern, macht es zu einem sich ständig weiterentwickelnden Aktivposten, der sich an die sich ständig ändernden Geschäftsanforderungen anpassen kann. Weitere Informationen zur Anpassung von Copilot für Microsoft 365 finden Sie unter Copilot | Microsoft Developer. Weitere Informationen über den Einsatz von KI in Erweiterungen finden Sie direkt in diesen Angeboten.

Anwendungsfälle

Copilot für Microsoft 365 ist ein universeller Dienst, der für die Unterstützung einer Vielzahl von alltäglichen Aufgaben in jeder Organisation konzipiert wurde, indem er mit Arbeitsdaten verbunden und in die Apps integriert wird, die Kunden täglich nutzen. Zum Beispiel:

Chat- und Konversationsinteraktion und -erstellung: Benutzer können mit Copilot für Microsoft 365 mit Graph-gestütztem Chat interagieren und Antworten aus vertrauenswürdigen Dokumenten wie unternehmensinterner Dokumentation oder Dokumentation des technischen Supports generieren.
Suche: Benutzer können vertrauenswürdige Quelldokumente wie interne Unternehmensdokumentationen durchsuchen.
Zusammenfassung: Benutzer können Inhalte zur Zusammenfassung für vordefinierte Themen einreichen, die in die Anwendung integriert sind. Beispiele hierfür sind die Zusammenfassung von Teams-Chats, E-Mails, Webseiten und Word-Dokumenten.
Schreibhilfe zu bestimmten Themen: Benutzer können neue Inhalte erstellen oder vom Benutzer eingereichte Inhalte umschreiben, um eine Schreibhilfe für geschäftliche Inhalte oder vordefinierte Themen zu erhalten. Zum Beispiel das Verfassen von E-Mails in Microsoft Outlook oder das Schreiben von Inhalten in Microsoft Word.
Untertitelung oder Transkription: Benutzer können Audiodateien in Text umwandeln, um natürliche Sprache zu verstehen oder analytische Aufgaben wie Zusammenfassungen zu erstellen. Beispiele hierfür sind Mitschriften von Teams-Meetings und Videos auf Microsoft Stream.

Microsoft bietet detaillierte Anleitungen, die sich auf gängige Anwendungsfälle und Szenarien konzentrieren, um Kunden dabei zu helfen, die Integration der Funktionen von Copilot für Microsoft 365 in ihren Organisationen zu beschleunigen. Weitere Informationen finden Sie in der Microsoft Copilot-Szenariobibliothek – Microsoft Adoption.

Überlegungen bei der Auswahl eines Anwendungsfalls

Wir empfehlen Benutzern, alle von Copilot für Microsoft 365 generierten Inhalte zu überprüfen, bevor sie diese verwenden. Darüber hinaus gibt es bestimmte Szenarien, die wir empfehlen zu vermeiden. In einigen Fällen kann eine sinnvolle menschliche Aufsicht und Überprüfung das Risiko schädlicher Folgen weiter verringern.

Die Vermeidung der Nutzung oder des Missbrauchs des Systems könnte zu erheblichen körperlichen oder psychischen Verletzungen einer Person führen. Beispielsweise können Szenarien, in denen Patienten diagnostiziert oder Medikamente verschrieben werden, erhebliche Schäden verursachen.
Die Vermeidung der Nutzung oder des Missbrauchs des Systems könnte sich auf die Lebenschancen oder den rechtlichen Status auswirken. Beispiele hierfür sind Szenarien, in denen das KI-System den rechtlichen Status, die gesetzlichen Rechte oder den Zugang zu Krediten, Bildung, Beschäftigung, Gesundheitsversorgung, Wohnraum, Versicherungen, Sozialleistungen, Dienstleistungen, Möglichkeiten oder die Bedingungen, zu denen diese bereitgestellt werden, einer Person beeinflussen könnte.
Überlegen Sie sorgfältig, ob Anwendungsfälle in Bereichen oder Branchen mit hohen Risiken vorliegen. Beispiele hierfür sind unter anderem medizinische oder finanzielle Bereiche.

Einschränkungen

Spezifische Einschränkungen von Copilot für Microsoft 365

Integration und Kompatibilität: Copilot für Microsoft 365 ist zwar so konzipiert, dass es sich nahtlos in Microsoft 365-Anwendungen integrieren lässt, doch kann es in bestimmten Umgebungen zu Einschränkungen oder Kompatibilitätsproblemen kommen, insbesondere bei Drittanbieter-Apps (nicht von Microsoft) und benutzerdefinierten oder nicht standardmäßigen Konfigurationen.
Anpassung und Flexibilität: Copilot für Microsoft 365 kann zwar angepasst werden, es gibt jedoch Einschränkungen, wie stark es an spezifische Unternehmensanforderungen oder Arbeitsabläufe angepasst werden kann. Unternehmen könnten bestimmte Funktionen oder Antworten als starr oder nicht vollständig auf die Unternehmensanforderungen abgestimmt empfinden.
Abhängigkeit von der Internetverbindung: Copilot für Microsoft 365 ist auf eine Internetverbindung angewiesen, um zu funktionieren. Jede Unterbrechung der Verbindung kann sich auf die Verfügbarkeit und Leistung des Dienstes auswirken.
Benutzerschulung und -akzeptanz: Für eine effektive Nutzung von Copilot für Microsoft 365 müssen die Benutzer die Funktionen und Einschränkungen des Programms verstehen. Es kann eine Lernkurve geben, und die Benutzer müssen geschult werden, um effektiv mit dem Dienst zu interagieren und von ihm zu profitieren.
Ressourcenintensität: Die Ausführung fortgeschrittener KI-Modelle erfordert erhebliche Rechenressourcen, was sich insbesondere in ressourcenbeschränkten Umgebungen auf die Leistung auswirken kann. Bei hoher Auslastung können bei Benutzern Latenz- oder Leistungsprobleme auftreten.
Rechtliche und Compliance-Überlegungen: Organisationen müssen bei der Nutzung von Copilot für Microsoft 365 ihre besonderen rechtlichen und Compliance-Verpflichtungen berücksichtigen, insbesondere in regulierten Branchen. Microsoft untersucht die regulatorischen Anforderungen, die für Microsoft als Anbieter der Technologie gelten, und berücksichtigt sie im Rahmen eines kontinuierlichen Verbesserungsprozesses im Produkt.
Voreingenommenheit, Stereotypisierung und unbegründete Inhalte: Trotz intensiver Schulungen durch OpenAI und der Implementierung verantwortungsvoller KI-Kontrollen durch Microsoft sowohl bei Benutzeranfragen als auch bei LLM-Ausgaben sind KI-Dienste fehlbar und probabilistisch. Dies macht es schwierig, alle unangemessenen Inhalte umfassend zu blockieren, was zu potenziellen Voreingenommenheiten, Stereotypen oder Unbegründetheit in KI-generierten Inhalten führt. Weitere Informationen zu den bekannten Einschränkungen von KI-generierten Inhalten finden Sie in der Transparenznotiz für den Azure OpenAI-Dienst, die Verweise auf die LLMs hinter Copilot für Microsoft 365 enthält.

Leistung von Copilot für Microsoft 365

In vielen KI-Systemen wird die Leistung oft in Bezug auf die Genauigkeit definiert, d. h. wie oft das KI-System eine korrekte Vorhersage oder Ausgabe liefert. Bei Copilot für Microsoft 365 kann es vorkommen, dass zwei verschiedene Benutzer dieselbe Ausgabe betrachten und unterschiedliche Meinungen darüber haben, wie nützlich oder relevant sie ist, was bedeutet, dass die Leistung für diese Systeme flexibler definiert werden muss. Im Allgemeinen verstehen wir unter Leistung, dass die Anwendung so funktioniert, wie die Benutzer es erwarten.

Bewährte Verfahren zur Verbesserung der Copilot for Microsoft 365-Erfahrung

Um die Leistung in Bezug auf die Genauigkeit der Ausgabe von Copilot für Microsoft 365 zu verbessern, empfehlen wir Organisationen, Folgendes zu berücksichtigen:

Schreiben Sie gute Eingabeaufforderungen. Das Schreiben guter Eingabeaufforderungen ist der Schlüssel zu besseren Ergebnissen mit Copilot für Microsoft 365. Genauso wie es Techniken gibt, die Menschen dabei helfen, effektiv mit einem Menschen zu kommunizieren, gibt es Richtlinien, die Benutzern helfen können, bessere Ergebnisse mit Copilot für Microsoft 365 zu erzielen, wenn sie Eingabeaufforderungen schreiben. Zum Beispiel: Geben Sie Details an, strukturieren Sie Eingabeaufforderungen, geben Sie positive Anweisungen, wiederholen und regenerieren Sie und überprüfen und verifizieren Sie immer KI-generierte Antworten. Weitere Informationen finden Sie unter Bessere Ergebnisse mit Copilot-Eingabeaufforderungen.
Erlauben Sie die Referenzierung von Webinhalten. Wenn Sie Copilot für Microsoft 365 die Referenzierung von Webinhalten erlauben, können Sie die Qualität, Genauigkeit und Relevanz von Copilot für Microsoft 365-Antworten verbessern, wenn eine Antwort von aktuellen, öffentlichen Informationen aus dem Internet profitieren würde. Beachten Sie jedoch, dass Copilot für Microsoft 365, wenn es auf Webinhalte verweist, dies über den Bing-Suchdienst tut und die Datenverarbeitungspraktiken für Bing-Suchanfragen sich von der Datenverarbeitung durch Copilot für Microsoft 365 unterscheiden. Die Nutzung von Bing wird durch die Microsoft-Dienstleistungsvereinbarung zwischen jedem Benutzer und Microsoft sowie durch die Microsoft-Datenschutzerklärung geregelt.
Grundkenntnisse in Microsoft Graph erweitern. Copilot für Microsoft 365 verwendet Daten aus Microsoft Graph, um Antworten in organisationsspezifischen Daten wie E-Mails, Chats, Dateien und Kalendern zu verankern. Durch die Erweiterung von Microsoft Graph mit Organisationsdaten aus Quellen wie CRM-Systemen oder externen Dateiablagen können Organisationen zusätzliche kontextspezifische, relevante Informationen einbeziehen, die den Umfang und die Genauigkeit der Antworten von Copilot für Microsoft 365 weiter verbessern.

Risiken abbilden, messen und managen

Wie bei anderen transformativen Technologien ist die Nutzung der Vorteile von KI nicht risikofrei. Ein Kernbestandteil des Programms für verantwortungsvolle KI von Microsoft besteht darin, potenzielle Risiken zu identifizieren, ihre Eintrittswahrscheinlichkeit zu messen und Maßnahmen zu ihrer Bewältigung zu entwickeln. Geleitet von unseren KI-Prinzipien und unserem Standard für verantwortungsvolle KI und aufbauend auf den Erkenntnissen aus anderen generativen KI-Produkten und unserer zentralisierten Infrastruktur zur Risikominderung (z. B. Azure AI Content Safety) versuchen wir, potenzielle Risiken und den Missbrauch von Copilot für Microsoft 365 zu erfassen, zu messen und zu managen, während wir gleichzeitig die transformativen und nützlichen Anwendungen, die die neue Erfahrung bietet, sichern. In den folgenden Abschnitten beschreiben wir unseren iterativen Ansatz zur Erfassung, Messung und Bewältigung potenzieller Risiken.

Kartierung

Auf Modellebene begann unsere Arbeit im Spätsommer 2022 mit explorativen Analysen von GPT-4. Dazu gehörten umfangreiche Red-Team-Tests in Zusammenarbeit mit OpenAI. Diese Tests sollten bewerten, wie die neueste Technologie ohne zusätzliche Sicherheitsvorkehrungen funktionieren würde. Zu diesem Zeitpunkt bestand unsere konkrete Absicht darin, Risiken zu identifizieren, potenzielle Möglichkeiten für Missbrauch aufzudecken und Fähigkeiten und Grenzen zu ermitteln. Unsere gemeinsamen Erkenntnisse bei OpenAI und Microsoft trugen zu Fortschritten bei der Modellentwicklung bei und verhalfen uns bei Microsoft zu einem besseren Verständnis der Risiken und trugen zu frühzeitigen Strategien zur Risikominderung für alle unsere generativen KI-Technologien bei, einschließlich Copilot für Microsoft 365.

Zusätzlich zu den Red-Team-Tests auf Modellebene führte ein multidisziplinäres Expertenteam Red-Team-Tests auf Anwendungsebene für Copilot for Microsoft 365 durch, bevor diese öffentlich verfügbar gemacht wurden. Dieser Prozess half uns, besser zu verstehen, wie das System ausgenutzt werden könnte, und unsere Gegenmaßnahmen zu verbessern. Nach der Veröffentlichung werden die neuen KI-Erfahrungen in Copilot for Microsoft 365 in die bestehende Infrastruktur für Produktionsmessung und -tests der Entwicklungsorganisation integriert.

Maßnahme

Red-Team-Tests können bestimmte Risiken aufdecken, aber in der Produktion werden Benutzer Millionen verschiedener Arten von Interaktionen mit Copilot für Microsoft 365 haben. Darüber hinaus sind Interaktionen kontextbezogen und oft mehrteilig, und die Identifizierung schädlicher Inhalte innerhalb einer Interaktion ist eine komplexe Aufgabe. Um das Risikopotenzial für unsere generativen KI-Dienste, einschließlich Copilot für Microsoft 365, besser zu verstehen und anzugehen, haben wir spezifische Evaluierungen für verantwortungsvolle KI für diese neuen KI-Erfahrungen entwickelt, um potenzielle Risiken wie Jailbreaks, schädliche Inhalte und unbegründete Inhalte zu messen.

Ein anschauliches Beispiel: Die aktualisierte, teilweise automatisierte Messpipeline für schädliche Inhalte umfasst zwei wichtige Innovationen: Konversationssimulation und automatisierte, von Menschen verifizierte Konversationsannotierung. Zunächst erstellten Experten für verantwortungsvolle KI Vorlagen, um die Struktur und den Inhalt von Gesprächen zu erfassen, die zu verschiedenen Arten von schädlichen Inhalten führen könnten. Diese Vorlagen wurden dann an einen Konversationsagenten übergeben, der als hypothetischer Benutzer mit Copilot für Microsoft 365 interagierte und simulierte Gespräche erzeugte. Um festzustellen, ob diese simulierten Unterhaltungen schädliche Inhalte enthielten, haben wir Richtlinien verwendet, die normalerweise von Sprachexperten zur Kennzeichnung von Daten verwendet werden, und sie für die Verwendung durch LLMs zur Kennzeichnung von Unterhaltungen in großem Maßstab angepasst. Dabei haben wir die Richtlinien so lange verfeinert, bis eine signifikante Übereinstimmung zwischen den modellbasierten und den von Menschen gekennzeichneten Unterhaltungen bestand. Schließlich haben wir die modellbasierten Unterhaltungen verwendet, um die Wirksamkeit von Copilot für Microsoft 365 bei der Eindämmung schädlicher Inhalte zu verstehen.

Unsere Messpipelines ermöglichen es uns, potenzielle Risiken schnell und in großem Umfang zu messen. Während wir im Vorschauzeitraum und bei den laufenden Red-Team-Tests neue Probleme identifizieren, erweitern und verbessern wir die Messreihen kontinuierlich, um zusätzliche Risiken zu bewerten.

Verwalten

Nachdem wir potenzielle Risiken und Missbrauch durch Prozesse wie Red-Team-Tests identifiziert und gemessen haben, haben wir Maßnahmen entwickelt, um das Schadenspotenzial zu reduzieren. Im Folgenden beschreiben wir einige dieser Maßnahmen. Wir werden die Erfahrungen mit Copilot for Microsoft 365 weiterhin überwachen, um die Produktleistung und die Maßnahmen zu verbessern.

Schrittweise Veröffentlichung, kontinuierliche Bewertung. Wir sind bestrebt, zu lernen und unseren verantwortungsvollen KI-Ansatz kontinuierlich zu verbessern, während sich unsere Technologien und das Benutzerverhalten weiterentwickeln. Wir nehmen regelmäßig Änderungen an Copilot für Microsoft 365 vor, um die Produktleistung zu verbessern, bestehende Abhilfemaßnahmen zu verbessern und neue Abhilfemaßnahmen als Reaktion auf unsere Erkenntnisse zu implementieren.
Verankerung in Geschäftsdaten. Ein bekanntes Risiko bei großen Sprachmodellen ist ihre Fähigkeit, unbegründete Inhalte zu generieren – Inhalte, die korrekt erscheinen, aber nicht in den Quellmaterialien vorhanden sind. Eine wichtige Maßnahme zur Risikominderung in Copilot für Microsoft 365 besteht darin, KI-generierte Inhalte auf relevante Geschäftsdaten zu stützen, auf die der Benutzer aufgrund seiner Berechtigungen Zugriff hat. Beispielsweise werden Copilot für Microsoft 365 auf der Grundlage der Benutzeraufforderung relevante Geschäftsdokumente zur Verfügung gestellt, um seine Antwort auf diese Dokumente zu stützen. Bei der Zusammenfassung von Inhalten aus verschiedenen Quellen kann Copilot für Microsoft 365 jedoch Informationen in seine Antwort einbeziehen, die in seinen Eingabequellen nicht vorhanden sind. Mit anderen Worten: Es kann zu unbegründeten Ergebnissen kommen. Benutzer sollten bei der Verwendung von Ergebnissen aus Copilot für Microsoft 365 stets Vorsicht walten lassen und nach bestem Wissen und Gewissen handeln. Wir haben mehrere Maßnahmen ergriffen, um das Risiko zu minimieren, dass Benutzer sich zu sehr auf unbegründete KI-generierte Inhalte verlassen. Wenn möglich, enthalten Antworten in Copilot für Microsoft 365, die auf Geschäftsdokumenten basieren, Verweise auf die Quellen, damit Benutzer die Antwort überprüfen und mehr erfahren können. Benutzer werden außerdem ausdrücklich darauf hingewiesen, dass sie mit einem KI-System interagieren, und es wird ihnen empfohlen, die Quellmaterialien zu überprüfen, um ihr bestes Urteilsvermögen zu nutzen.
KI-basierte Klassifizierer und Metaprompting zur Minderung potenzieller Risiken oder Missbrauch. Die Verwendung von LLMs kann problematische Inhalte erzeugen, die zu Schäden führen können. Beispiele hierfür sind Inhalte im Zusammenhang mit Selbstverletzung, Gewalt, grafische Inhalte, geschütztes Material, ungenaue Informationen, Hassreden oder Texte, die sich auf illegale Aktivitäten beziehen könnten. Klassifizierer, wie sie in Azure AI Content Safety verfügbar sind, und Metaprompting sind zwei Beispiele für Maßnahmen, die in Copilot für Microsoft 365 implementiert wurden, um das Risiko dieser Art von Inhalten zu verringern. Klassifizierer klassifizieren Text, um verschiedene Arten potenziell schädlicher Inhalte in Benutzeranfragen oder generierten Antworten zu kennzeichnen. Copilot für Microsoft 365 verwendet KI-basierte Klassifizierer und Inhaltsfilter. Markierungen führen zu potenziellen Abhilfemaßnahmen, wie z. B. die Nichtrückgabe generierter Inhalte an den Benutzer oder die Umleitung des Benutzers zu einem anderen Thema. Metaprompting bedeutet, dass dem Modell Anweisungen gegeben werden, um sein Verhalten zu steuern, damit sich das System gemäß den KI-Prinzipien von Microsoft und den Erwartungen der Benutzer verhält. Beispielsweise kann der Metaprompt eine Zeile wie „Kommunikation in der Sprache der Wahl des Benutzers“ enthalten.
Anreicherung von Eingabeaufforderungen. In einigen Fällen kann die Eingabeaufforderung eines Benutzers mehrdeutig sein. In diesem Fall kann Copilot für Microsoft 365 die LLM verwenden, um die Eingabeaufforderung mit weiteren Details zu ergänzen und sicherzustellen, dass die Benutzer die gewünschte Antwort erhalten. Eine solche Anreicherung von Eingabeaufforderungen beruht nicht auf Kenntnissen über den Benutzer oder seine vorherigen Suchanfragen, sondern auf der LLM.
Nutzerzentriertes Design und Maßnahmen zur Verbesserung der Nutzererfahrung. Nutzerzentriertes Design und Nutzererfahrungen sind ein wesentlicher Aspekt des Ansatzes von Microsoft für verantwortungsvolle KI. Ziel ist es, das Produktdesign auf die Bedürfnisse und Erwartungen der Nutzer auszurichten. Wenn Nutzer zum ersten Mal mit Copilot für Microsoft 365 interagieren, bieten wir verschiedene Berührungspunkte, die ihnen helfen sollen, die Fähigkeiten des Systems zu verstehen, ihnen mitzuteilen, dass Copilot für Microsoft 365 auf KI basiert, und ihnen die Grenzen aufzuzeigen.
KI-Offenlegung. Copilot für Microsoft 365 bietet mehrere Berührungspunkte für eine aussagekräftige KI-Offenlegung, bei der Benutzer darüber informiert werden, dass sie mit einem KI-System interagieren, sowie Möglichkeiten, mehr über Copilot für Microsoft 365 zu erfahren. Wenn Copilot für Microsoft 365 beispielsweise in der Word-App verwendet wird, werden KI-generierte Inhalte zusammen mit dem Hinweis angezeigt, dass KI-generierte Inhalte Fehler enthalten können. Wenn Benutzer dieses Wissen erhalten, können sie vermeiden, sich zu sehr auf KI-generierte Ergebnisse zu verlassen, und sich über die Stärken und Grenzen des Systems informieren.
Medienherkunft. Für alle Bilder, die mit den Bearbeitungsfunktionen von Designer in Copilot für Microsoft 365 erstellt wurden, haben wir Inhaltsnachweise implementiert, die auf dem C2PA-Standard basieren, um Menschen dabei zu helfen, zu erkennen, ob Bilder bearbeitet oder mit KI generiert wurden. Herkunftsmetadaten können auf der Website „Inhaltsnachweise“ eingesehen werden.
Feedback und laufende Bewertung. Die Copilot for Microsoft 365-Erfahrung baut auf vorhandenen Tools auf, mit denen Benutzer Feedback zu unseren Produkten abgeben können. Benutzer können Feedback zu Inhalten abgeben, die von Copilot for Microsoft 365 generiert wurden, indem sie den Bereich verwenden, der nach Auswahl der Schaltflächen „Daumen hoch“ oder „Daumen runter“ auf den Antworten angezeigt wird. Das von Benutzern abgegebene Feedback wird zur Verbesserung unserer Angebote im Rahmen unseres Engagements für die Verbesserung der Produktleistung verwendet. Kundenadministratoren können das im Microsoft 365 Admin Center eingereichte Feedback überprüfen. Im Rahmen unserer fortlaufenden Bewertung und Verbesserung des Dienstes verbessern und testen wir auch kontinuierlich die Leistung von Copilot für Microsoft 365 und spezifische Abhilfemaßnahmen. Weitere Informationen finden Sie unter „Feedback zu Microsoft Copilot mit Microsoft 365-Apps geben“.

Unser Ansatz zur Kartierung, Messung und Steuerung von Risiken wird sich mit zunehmendem Wissensstand weiterentwickeln, und wir nehmen bereits Verbesserungen auf der Grundlage des Feedbacks unserer Kunden vor.

Evaluierung und Integration von Copilot für Microsoft 365 für Ihre Organisation

Optimierung der Bereitstellung und Einführung

Microsoft stellt Microsoft 365-Kunden Tools wie das Microsoft Copilot Dashboard und Berichte im Microsoft 365 Admin Center zur Verfügung. Diese Tools sollen Organisationen dabei helfen, die Nutzung, Akzeptanz und die Auswirkungen von Copilot für Microsoft 365 zu messen. Ein Beispiel:

Der Copilot for Microsoft 365-Nutzungsbericht ermöglicht es Administratoren, eine Zusammenfassung darüber anzuzeigen, wie die Akzeptanz, Bindung und das Engagement der Benutzer für Copilot for Microsoft 365 sind, sowie die Aktivitäten jedes Benutzers in einer Organisation.
Der Akzeptanzwert bietet Administratoren Einblicke in die Art und Weise, wie ihre Organisation mit Copilot für Microsoft 365 arbeitet. Er liefert eine Bewertung auf einer 100-Punkte-Skala, eine Dashboard-Ansicht der Akzeptanzdaten und -trends sowie ein Tool zur Erstellung von Benutzerumfragen, um Feedback zu sammeln.
Das Dashboard „Erfahrungsberichte“ (Vorschau) zeigt Daten zur Nutzung an, um einen umfassenderen Überblick über die Erfahrungen einer Organisation mit Microsoft 365 zu geben, einschließlich Einblicke in Schulungs-, App- und Servicedaten sowie Nutzerfeedback.“

Schreibe einen Kommentar