Die meisten Menschen wollen höflich sein – auch gegenüber KI. Der Betreiber von ChatGPT berichtet nun, dass die Firma viel Geld verliert, weil Nutzer Bitte und Danke sagen.

Für manche Menschen ist es einfach Routine, über die man nicht nachdenkt, andere finden es ohne merkwürdig und wieder andere wollen es sich nicht mit der KI verderben: Sich zu bedanken und Bitte zu sagen, ist für viele Nutzer von ChatGPT völlig normal. OpenAI-Chef Sam Altman hat nun erstmals durchblicken lassen, welche gigantischen Kosten dadurch entstehen und was er persönlich davon hält. 

„Ich frage mich, wie viel Geld OpenAI für Elektrizitätskosten bezahlen musste, weil Menschen ‚Bitte‘ und ‚Danke‘ zu den KI-Modellen sagen“, wunderte sich X-Nutzer „Tomieinlove“ – und bekam tatsächlich eine Antwort: „Dutzende Millionen Dollar“, habe das Unternehmen für diese Art von Anfragen bereits auf den Tisch legen müssen, erklärte Altman. Besonders ärgerlich findet er das aber offenbar nicht. „Es ist gut ausgegebenes Geld – man weiß ja nie“, witzelt er über die Sorge mancher Menschen, dass man es sich mit KI nicht verscherzen dürfe.

So viel kosten ChatGPT-Anfragen

Dass die Kosten so hoch ausfallen, hat einen einfachen Grund: ChatGPT und andere Sprachmodelle behandeln jede eingehende Nachricht gleich – und analysieren genau, welche Intention hinter der Nachricht stecken könnte. Selbst wenn ein Nutzer nur ein „Danke“ oder „Bitte“ hinterherschiebt, könnte die Person schließlich eine ausführlichere Antwort erwarten. Weil die Verarbeitung von Sprache immer noch hohe Ansprüche an die genutzte Hardware stellt, entstehen dadurch selbst bei Höflichkeitsfloskeln Kosten.

Wie viel genau eine einzelne Anfrage kostet, verrät das Unternehmen auf seiner Webseite. Das fällt nach Modell höchst unterschiedlich aus: Beim einfachen Modell GPT-4o Mini entstehen etwa pro eine Million Anfragen 15 und pro eine Million Antworten 60 Cent an Kosten. Beim deutlich intelligenteren GPT-o1 Pro sind es pro Million aber schon 150 Dollar für Anfragen und 600 Dollar für Antworten. Das beliebteste Modell GPT 4o liegt bei 12,50 Dollar pro Million Fragen und Antworten.

Bedenkt man, dass ChatGPT in den vergangenen Wochen durch den Hype um Bild-KI-Funktionen (hier erfahren Sie mehr) zur meistgeladenen App der Welt wurde, dürften die Anfragezahlen und damit die Kosten für Server und Strom zuletzt deutlich nach oben geschossen sein. Altman sprach von „einem Zehntel der Menschheit“, die den Dienst „oft“ nutzen würden. Das entspräche 800 Millionen regelmäßigen Nutzern. Würde sich jeder davon auch nur einmal bedanken, würde das also selbst im günstigsten Fall auf einen Schlag 600 Dollar an Kosten verursachen; beim beliebten GPT 4o wären es schon 10.000 Dollar.

Antwort mit Humor

Dem ursprünglichen Fragesteller scheint es übrigens weniger um eine ernsthafte Beantwortung seiner Frage gegangen zu sein. Das zeigt seine Antwort auf Altmans Post. „Ich möchte mich bei OpenAI bedanken“, leitet Tomieinlove ein – um dann Altman einen mitzugeben. „Eure KI-Modelle waren so nützlich, einige wirklich komplizierte Aufgaben zu erledigen. Etwa, ihre Namen zu verstehen“, witzelt er über die enorm verwirrenden Bezeichnungen der GPT-Modelle, wie die beiden aktuellen Modelle GPT-4o und GPT-o3.

Altman dürfte sich allerdings nicht allzu sehr darüber geärgert haben. „Wie wäre es, wenn wir bis zum Sommer mal unsere Namensgebung in den Griff kriegen – und ihr bis dahin noch ein paar Monate Zeit bekommt, uns dafür (völlig verdient) auf die Schippe zu nehmen?“, hatte er erst zwei Tage vorher geschrieben. 

Quelle:OpenAI