Das GPT von OpenAI ist, wie das PaLM 2 von Google und das LLaMA von Meta, ein Beispiel für ein großes Sprachmodell (LLM). Dabei handelt es sich um ein fortschrittliches System der künstlichen Intelligenz, das entwickelt wurde, um menschenähnliche Sprache zu verstehen und zu erzeugen. Diese Modelle wurden unter großem Kosten- und Ressourcenaufwand auf riesigen Datenmengen "trainiert", um Aufgaben wie die Beantwortung von Fragen, die Generierung von Text, die Übersetzung von Text und mehr zu erfüllen.
So wurde GPT-4, das im März 2023 veröffentlicht wurde, Berichten zufolge auf deutlich mehr Daten trainiert als sein Vorgänger GPT- , der auf 45 Terabyte Textdaten trainiert wurde.
Dadurch ist sie in der Lage, kontextbezogene Antworten zu verstehen und zu erstellen, was sie für eine Vielzahl von Anwendungen wie virtuelle Assistenten und die Erstellung von Inhalten wertvoll macht.
Von den bereits auf den Markt gebrachten generativen KI-Anwendungen für Endnutzer wurde ChatGPT, das von OpenAI entwickelt wurde, mit dem GPT-Modell trainiert, während Google Bard mit dem PalM 2-Modell trainiert wurde. Beide eignen sich besonders für die Sprachverarbeitung und können als Reaktion auf bestimmte Aufforderungen Text, Bilder oder Audiosignale erzeugen.
Trotz ihres enormen "Wissens" beruhen die Ergebnisse, die LLMs liefern, jedoch immer nur auf ihren zuvor trainierten Modellen. Die Trainingsdaten von ChatGPT zum Beispiel enthalten nur Quellen bis September 2021. Wenn Sie es bitten würden, den aktuellen Premierminister von Großbritannien zu nennen, würde es immer noch glauben, dass Boris Johnson im Amt ist - auch wenn es dies mit einem Hinweis auf die Überprüfung durch aktuelle Quellen einschränken würde.
Außerdem haben die meisten keinen Zugang zu Echtzeitinformationen, so dass sie nicht in der Lage sind, Ihnen die aktuelle Uhrzeit zu nennen.
Wie können Sie also den Aussagen von GPT vertrauen?
Es gibt immer Herausforderungen, wenn es um die Einführung revolutionärer neuer Technologien geht. Und eine der wichtigsten Überlegungen beim Einsatz von generativer KI ist ihre Fähigkeit, die Wahrheit zu sagen. Um es einfach auszudrücken. LLMs liefern Informationen, aber sie sind nicht in der Lage zu entschlüsseln, was wahr ist und was nicht. Jedes Unternehmen muss darauf vertrauen können, dass die Antwort, die es dem Endnutzer gibt, korrekt ist. Bei generativen KI-Anwendungen muss es also ein Verfahren geben, um den Wahrheitsgehalt, die Angemessenheit und die Verzerrung der Informationen zu prüfen.
Wenn beispielsweise ein Verbraucher einen generativen KI-Chatbot auf der Website eines Einzelhändlers nach Möglichkeiten der Selbstbeschädigung fragt, kann die Antwort nicht auf Fakten beruhen und der Person einen Ratschlag geben, wie sie sich selbst Schaden zufügen kann. Auch wenn die Antwort wahrheitsgemäß ist, wäre sie völlig unangemessen und würde das Unternehmen vor mehrere Probleme stellen.
Wie kann GPT also für ein Unternehmen nützlich sein?
"Es ist wichtig zu erkennen, dass wir, wenn wir darüber sprechen, wie ein Unternehmen generative KI einsetzen kann, nicht einfach nur über den Einsatz von ChatGPT oder Bard sprechen".
Diese Beispiele zeigen, dass generative KI-Anwendungen für Endbenutzer nur begrenzt wertvolle und präzise Antworten liefern können. Sie mögen zwar für die Öffentlichkeit wertvoll sein, können aber für die Entscheidungsfindung schädlich sein. Und diese Modelle werden erst dann mehr "lernen", wenn der Entwickler in ihr Training investiert hat oder wenn andere Datenquellen eingebettet oder indiziert wurden.
Es ist also wichtig zu erkennen, dass wir, wenn wir darüber sprechen, wie ein Unternehmen generative KI einsetzen kann, nicht einfach über den Einsatz von ChatGPT oder Bard sprechen. In fast allen Fällen geht es auch nicht darum, völlig neue Modelle zu erstellen und sie mit neuen Daten zu trainieren - etwas, das für die meisten Unternehmen zu teuer wäre. Als führender Lösungsintegrator machen wir uns die Leistungsfähigkeit bestehender LLMs wie GPT-4 (das neueste Modell) zunutze und binden indizierte Unternehmensdaten ein, um zuverlässigere, vertrauenswürdige und genauere Antworten zu liefern, die den Anforderungen eines Unternehmens entsprechen.
Im Fall des Nutzers, der nach Selbstverletzungen fragte. Die Indizierung der eigenen Daten des Einzelhändlers und deren Einbettung in ein LLM würde zu einem ganz anderen Ergebnis führen. Es könnte bedeuten, dass die Frage sofort abgefangen und an die Polizei weitergeleitet wird, oder es könnte eine Liste mit Telefonnummern von Beratungsstellen bereitgestellt werden. Anstatt der faktenbasierten Antwort, die das Modell während seiner Ausbildung gelernt hat.
An dieser Stelle ist es ratsam, auf die Datensicherheit einzugehen, denn wenn Sie Ihre wertvollen Daten in ein LLM einbetten, müssen Sie wissen, dass sie sicher sind. Wir haben bereits von Angestellten gehört, die ChatGPT zur Überprüfung der Codierung verwendet haben und dabei unwissentlich Firmeneigentum preisgegeben haben, weshalb es nicht ratsam ist, diese Verbraucherversionen zu verwenden. Wenn Sie Ihre Daten parallel zum Modell laufen lassen, können Sie Ihr geistiges Eigentum schützen und erhalten gleichzeitig eine viel genauere Antwort von der Anwendung.
Wie Insight helfen kann
Insight unterstützt Unternehmen dabei, die Vorteile einer sicheren Integration von generativer KI in ihr Unternehmen zu verstehen. Wir führen Kundenworkshops durch, um viele der in diesem Artikel angesprochenen Themen zu erörtern. Wir arbeiten direkt mit einzelnen, bestehenden oder potenziellen Kunden zusammen, um ihnen dabei zu helfen, sich im Labyrinth der generativen KI effektiv zurechtzufinden.
Dazu führen wir einen eintägigen Workshop durch, der in der Regel aus vier Bereichen besteht. Der Erste hilft den Teilnehmern, die generative KI, ihre Möglichkeiten und Herausforderungen sowie die Risiken ihres Einsatzes zu verstehen. Der Zweite befasst sich mit den technischen Aspekten der Integration in bestehende Systeme, mit der Sicherheit und Zuverlässigkeit und mit der Kostenkalkulation.
Der dritte Bereich befasst sich mit typischen Anwendungsfällen für den öffentlichen Sektor und hilft Organisationen bei der Definition spezifischer Anwendungen, Ergebnisse und der potenziellen Investitionsrendite. Und schließlich wird im vierten Schritt eine Roadmap diskutiert und erstellt, in der detailliert beschrieben wird, wie die KI innerhalb des Unternehmens implementiert und genutzt werden könnte. Dies führt dann zum KI-Accelerator-Schritt, der vier Wochen dauert und in dem Insight die verschiedenen identifizierten Anwendungen gemeinsam mit dem Unternehmen implementiert, gefolgt von einem Managed-Service-Ansatz, falls erforderlich.
Natürlich steckt die generative KI noch in den Kinderschuhen, und Unternehmen beginnen gerade erst zu überlegen, wie sie über einfache Online-Kundendienstanfragen hinaus nützlich sein könnte.
Insight kann mit Ihrem Unternehmen zusammenarbeiten, um die Möglichkeiten aufzudecken und sie auf sichere und ethische Weise zum Leben zu erwecken.
Erfahren Sie mehr darüber, wie Sie Ihr Unternehmen für KI fit machen können.