14/07/2023
Eine neue Welle der Verrücktheit rund um KI überrollt die Welt, alle sozialen Netzwerke sind mit einer riesigen Menge von Experimenten rund um ein neues Produkt gefüllt - ChatGPT. In diesem Artikel werde ich Ihnen mehr als 30 Beispiele für KI-Chats vorstellen, die auf der quelloffenen künstlichen Intelligenz von OpenAI basieren. Die Plattform ist in vielen Sprachen verfügbar, einschließlich Russisch (über den eingebauten Übersetzer), aber es ist ratsam, sie auf Englisch zu benutzen, um genauere Antworten auf Ihre Fragen zu erhalten.
Was ist ChatGPT?
ChatGPT ist eine Implementierung eines Sprachvorhersagemodells, das auf maschineller Lerntechnologie basiert. Es wurde von OpenAI entwickelt und ermöglicht es Chat-Teilnehmern, die genauesten Antworten auf ihre Fragen zu erhalten. ChatGPT verwendet neuronale Netze, um Text zu analysieren und liefert die wahrscheinlichsten Antworten auf der Grundlage der trainierten Daten.
Wer ist der Schöpfer von ChatGPT?
OpenAI ist eine Forschungseinrichtung, die sich auf künstliche Intelligenz und maschinelles Lernen spezialisiert hat. Sie wurde 2015 von einer Gruppe prominenter Forscher und Entwickler gegründet, darunter Ilon Musk, Sam Altman und John Scalza. Ziel von OpenAI ist es, das Verständnis von künstlicher Intelligenz zu verbessern und sie zur Lösung komplexer Probleme in der Welt einzusetzen.
Wie und worauf das GPT-3-Modell trainiert wurde
Generative Pre-trained Transformer 3 (GPT-3) ist ein autoregressives Sprachmodell, das Deep Learning einsetzt, um menschenähnlichen Text zu erzeugen.
Die Architektur ist ein Standard-Transformator-Netzwerk (mit mehreren Einstellungen) mit einer beispiellosen Kontextgröße von 2048 Token und 175 Milliarden Parametern (800 GB Speicherplatz erforderlich). Die Trainingsmethode ist "generatives Pre-Training", d. h. es wird so trainiert, dass der nächste Datensatz vorhergesagt werden kann.
Die Qualität des von GPT-3 generierten Textes ist so hoch, dass es schwierig sein kann, zu unterscheiden, ob er von einem Menschen oder einer KI geschrieben wurde. Dies hat sowohl Vorteile als auch Risiken, vor denen die Entwickler warnen.
60 % des gewichteten Pre-Training-Datensatzes für GPT-3 stammen aus einer gefilterten Version von Common Crawl (Webarchive und Google-Suchen), die 410 Milliarden Datenpunkte umfasst.
Weitere Quellen sind 19 Milliarden Daten von WebText2 (Daten über Websites, die von der Reddit-Website verlinkt sind), was 22 % der gewichteten Gesamtmenge entspricht, 12 Milliarden Token von Books v1, was 8 % entspricht, 55 Milliarden Token von Books v2, was 8 % entspricht, und 3 Milliarden Token von Wikipedia.
GPT-3 wurde mit Hunderten von Milliarden von Wörtern trainiert und kann unter anderem auch in CSS, JSX und Python programmieren.
Da die Trainingsdaten von GPT-3 umfassend waren, ist ein weiteres Training für einzelne Sprachaufgaben nicht erforderlich. Die Trainingsdaten enthalten manchmal Schimpfwörter, und GPT-3 erzeugt gelegentlich Schimpfwörter als Ergebnis simulierter Trainingsdaten.