Skip to content
Como Executar o GPT4All Localmente: Aproveite o Poder dos Chatbots de IA

GPT4All: Mini-ChatGPT que pode ser executado em seu Laptop

Updated on

Descubra o potencial do GPT4All, uma solução local simplificada do ChatGPT baseada no modelo LLaMA 7B. Aprenda a configurá-lo e executá-lo em um laptop CPU local e explore seu impacto na paisagem da IA.

GPT4All é um modelo de linguagem de grande escala baseado em GPT-J e LLaMa em estilo de assistente, oferecendo uma ferramenta AI poderosa e flexível para diversas aplicações. Neste artigo, forneceremos um guia passo a passo sobre como usar o GPT4All, desde a instalação das ferramentas necessárias até a geração de respostas usando o modelo.

📚

O que é GPT4All?

GPT4All-J é o último modelo GPT4All baseado na arquitetura GPT-J. O modelo vem com instaladores nativos do cliente de bate-papo para Mac/OSX, Windows e Ubuntu, permitindo que os usuários desfrutem de uma interface de bate-papo com funcionalidade de atualização automática. O modelo bruto também está disponível para download, embora seja compatível apenas com as ligações C++ fornecidas pelo projeto.

O modelo original do GPT4All, baseado na arquitetura LLaMa, pode ser acessado através do site do GPT4All. O modelo está disponível em uma versão quantizada da CPU que pode ser facilmente executada em vários sistemas operacionais. O treinamento do GPT4All-J é detalhado no Relatório Técnico do GPT4All-J. Os usuários podem acessar os dados de treinamento curados para replicar o modelo para seus próprios propósitos. Os dados de treinamento estão disponíveis na forma de um Mapa Atlas de Estímulos e um Mapa Atlas de Respostas.

Como o GPT4All funciona?

O GPT4All oferece ligações oficiais Python para as interfaces de CPU e GPU. Os usuários podem interagir com o modelo GPT4All por meio de scripts Python, tornando fácil a integração do modelo em várias aplicações. O projeto GPT4All suporta um ecossistema crescente de modelos de borda compatíveis, permitindo que a comunidade contribua e expanda o alcance de modelos de linguagem disponíveis. Os desenvolvedores são incentivados a contribuir com o projeto e enviar solicitações de recebimento à medida que a comunidade cresce.

Como Executar o GPT4All Localmente

Para começar com o GPT4All, você precisará instalar os componentes necessários. Certifique-se de ter o Python instalado em seu sistema (preferencialmente Python 3.7 ou mais recente). Em seguida, siga estes passos:

  1. Faça o download do repositório GPT4All no GitHub: https://github.com/nomic-ai/gpt4all.git (opens in a new tab)
  2. Extraia os arquivos baixados para um diretório de sua escolha.
  3. Abra um terminal ou prompt de comando e navegue até o diretório do GPT4All extraído.
  4. Execute o seguinte comando para instalar os pacotes Python necessários:

Passo 1: Instalação

python -m pip install -r requirements.txt

Passo 2: Baixe o modelo GPT4All

Baixe o modelo GPT4All do repositório do GitHub ou do site GPT4All. O arquivo do modelo deve ter a extensão '.bin'. Coloque o arquivo do modelo baixado no diretório 'chat' dentro da pasta GPT4All.

Passo 3: Executando o GPT4All

Para executar o GPT4All, abra um terminal ou prompt de comando, navegue até o diretório 'chat' dentro da pasta GPT4All e execute o comando apropriado para o seu sistema operacional:

  • M1 Mac/OSX: ./gpt4all-lora-quantized-OSX-m1
  • Linux: ./gpt4all-lora-quantized-linux-x86
  • Windows (PowerShell): ./gpt4all-lora-quantized-win64.exe
  • Intel Mac/OSX: ./gpt4all-lora-quantized-OSX-intel

Passo 4: Usando o GPT4All

Depois de ter iniciado com sucesso o GPT4All, você pode começar a interagir com o modelo digitando suas solicitações e pressionando Enter. O GPT4All irá gerar uma resposta com base em sua entrada.

Passo 5: Usando o GPT4All em Python

Para usar o GPT4All no Python, você pode usar as ligações Python oficiais fornecidas pelo projeto. Primeiro, instale o pacote nomic executando:

pip install nomic

Em seguida, crie um script Python e importe o pacote GPT4All:

from nomic.gpt4all import GPT4All
 
# Inicialize o modelo GPT4All
m = GPT4All()
m.open()
 
# Gere uma resposta com base em um estímulo
response = m.prompt('escreva uma história sobre um computador solitário')
 
# Imprime a resposta gerada
print(response)

Conclusão

O GPT4All fornece uma alternativa acessível e de código aberto para modelos de IA em grande escala como o GPT-3. Seguindo este guia passo a passo, você pode começar a aproveitar o poder do GPT4All para seus projetos e aplicações. Para mais informações, confira o repositório do GPT4All no GitHub e junte-se à comunidade do GPT4All no Discord para obter suporte e atualizações.

Interessado em usar o ChatGPT para seus dados? Quer automatizar seu fluxo de trabalho de análise de dados?

Kanaries RATH (opens in a new tab) é uma ferramenta Open Source projetada para suas necessidades. Imagine que você pode fazer uma pergunta em linguagem natural e gerar informações e visualizações de dados, como mágica! Aqui está o demo:


O melhor de tudo? O RATH é Open Source. Dê-nos uma ⭐️ no GitHub (opens in a new tab)!

Interessado? Inspirado? Desbloqueie as informações de seus dados com uma única solicitação: ChatGPT alimentado por RATH está aberto para a fase beta agora! Embarque e confira!

ChatGPT + RATH, Get Data Insights with One Prompt (opens in a new tab)

📚