Keine Cloud erforderlich: Chatbot läuft lokal auf iPhones, alten PCs


Die meisten KI-Chatbots benötigen eine Menge Rechenleistung, so dass sie normalerweise in der Cloud leben. Sicher, Sie können ChatGPT auf Ihrem PC oder sogar einem Raspberry Pi ausführen, aber das lokale Programm sendet Ihre Eingabeaufforderungen über das Internet an die Server von OpenAI, um eine Antwort zu erhalten. Einige LLMs (Large Language Models) können jedoch lokal ausgeführt werden erfordern eine leistungsstarke GPU mit viel VRAM. Sie könnten unmöglich einen Chatbot lokal auf einem mobilen Gerät ausführen? Oder könnten Sie?

Ein brandneues Open-Source-Projekt namens MLC LLM ist leicht genug, um lokal auf fast jedem Gerät ausgeführt zu werden, sogar auf einem iPhone oder einem alten PC-Laptop mit integrierter Grafik. Und sobald Sie MLC LLM installiert haben, können Sie das Internet abschalten, da alle Daten und Verarbeitungen auf Ihrem System stattfinden.

source-109

Leave a Reply