Posts with #llm
Sat, September 7, 2024
1 min read
FirecrawlのOSS版をself-hostingして使ってみた
read more →
Sat, September 28, 2024
4 min read
OllamaをインストールしてローカルLLMを使う方法
Ollamaは、ローカル環境で大規模言語モデル(LLM)を簡単にセットアップ・運用できるツールです。データのプライバシーを確保しつつ、高速なレスポンスを得られます。HomebrewでOllamaをインストールし、Llama 3.2などのモデルを実行することで、ローカルでLLMを活用する方法を紹介します。