Chatbot mit lokalem LLM
Projekt Nr.: 1
Ein Chatbot, der nur lokal im Browser ausgeführt wird. Dafür wird ein LLM Modell in den Cache des Browsers geladen und die Rechenleistung des Clienten benutzt, um die Operationen (ohne serverseitige Verarbeitung) auszuführen.
Vorraussetzungen:
Chrome ab Version 113 mit aktivierter WebGPU. Geduld oder schnelles Internet, um ein gutes Modell (~4GB) im Browser zu laden.