O "ser local primeiro" do Obsidian faz toda diferença quando o assunto é IA com privacidade.
Há alguns dias, publiquei um vídeo explicando meu plano de usar IA local no meu cofre do Obsidian via Ollama. Depois, publiquei um outro explicando o Ollama para iniciantes. Super-resumidamente, o Ollama permite que você instale modelos LLM locais, que trabalham no seu computador. Nada vai para a nuvem!
Existem plugins que criam uma ligação com o Obsidian e nos permitem “conversar” com nossas notas. É o meu objetivo, mas antes de dar esse passo, quero me familiarizar com o Ollama e entender como ele funciona, o que ele faz no meu computador, e quais modelos são os melhores para o que desejo fazer. Por exemplo, no vídeo que acabei de publicar, mostro a conversão de uma tabela em formato CSV para Markdown usando um modelo local.
Outro teste que já fiz foi interagir com algumas notas do meu Obsidian usando o terminal do Mac. Como as notas são arquivos que estão no meu computador, foi possível ignorar o Obsidian e usar o terminal para mostrar para o Ollama o caminho até o arquivo .md, ou seja, a nota.
Escolhi a nota de um post recente e solicitei um resumo. Assim como a conversão da tabela que mencionei parágrafos acima, trata-se de uma tarefa extremamente básica que não impressiona mais ninguém, porém a diferença é que tudo aconteceu no meu computador. Vou repetir porque é incrível. Tudo foi feito no meu computador. Nada de acesso à Internet.
Mas o que achei ainda mais fascinante foi que usei uma das notas do meu Obsidian sem nem sequer abrir o Obsidian. Ter o conteúdo em formato de arquivos comuns em pastas do nosso computador faz toda a diferença. Pense bem, é possível usar uma IA local nos arquivos locais para explorar todo o potencial das nossas anotações sem abrir mão da privacidade.