Man sollte bei der Nutzung im Kopf behalten, dass solche großen LLMs Unmengen an Energie verbraten für jede einzelne Anfrage. Google nutzt spezielle Tensorchips (Trillium) und andere Firmen leistungshungrige Nvidia-Grafikkarten nur um eine einigermaßen schnelle Antwort zu generieren. Google's CO2-Ausstoß allein ist seit dem AI-Hype um 50% gestiegen obwohl sie eigentlich net 0 erreichen wollten. Klar sind ChatGPT, Gemini und Co. nette Spielereien, aber sie verbrauchen leider auch 100-1000x soviel Energie wie eine herkömmliche Suchanfrage. Vom teuren Training und der Sinnhaftigkeit mal ganz abgesehen...