Beitrag von Simon Frey

Profil von Simon Frey anzeigen, Grafik

Künstliche Intelligenz verständlich machen, daran arbeiten wir mit beansandbytes | Site Reliability Engineer & Fractional CTO | Ex-Head of Infrastructure | Bücherwurm & Podcaster

KI-Modelle ganz einfach lokal auf Mac und Windows laufen lassen? Das ist möglich. Mit #ollama könnt ihr ein lokales "ChatGPT" (z.B. #llama3, #phi3) sicher und privat betreiben. Direkt von eurem Rechner aus! So habt ihr die Kontrolle über eure Daten und könnt die Leistungsfähigkeit moderner KI-Modelle nutzen, ohne auf externe Dienste angewiesen zu sein. In diesem kurzen Video gehe ich mit euch alle relevanten Schritte dafür durch. Ihr erfahrt, wie ihr die Software installiert, konfiguriert und optimal nutzt. Zudem zeige ich, wie ihr die Modelle für verschiedene Anwendungen anpassen könnt, um das Beste aus eurer lokalen KI herauszuholen. #llm #howto #slm #chatgpt #gpt4

Simon Frey

Künstliche Intelligenz verständlich machen, daran arbeiten wir mit beansandbytes | Site Reliability Engineer & Fractional CTO | Ex-Head of Infrastructure | Bücherwurm & Podcaster

5 Monate

Hat es bei euch geklappt?

Zum Anzeigen oder Hinzufügen von Kommentaren einloggen

Themen ansehen