Desenvolvendo uma API para LLM Local utilizando Fast API (Llama 2 7b)

Posted by

Criando uma API para LLM Local (Llama 2 7b + Fast API)

Criando uma API para LLM Local (Llama 2 7b + Fast API)

Para criar uma API para LLM Local usando Llama 2 7b e Fast API, siga os passos abaixo:

  1. Instale o Llama 2 7b em seu ambiente local
  2. Instale o Fast API usando pip:

pip install fastapi

Crie um arquivo com o seguinte código para definir sua API:


from fastapi import FastAPI

app = FastAPI()

@app.get("/")
def read_root():
return {"Hello": "World"}

Execute o servidor Fast API com o seguinte comando:

uvicorn main:app --reload

Agora sua API estará funcionando em http://localhost:8000. Você pode acessar esta URL para testar sua API.

Este é apenas um exemplo simples de como criar uma API para LLM Local usando Llama 2 7b e Fast API. Você pode personalizar e expandir este código conforme suas necessidades.

0 0 votes
Article Rating
2 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
@jairneto7415
2 months ago

Muito bom irmão

@luisfernandooliveira71
2 months ago

cara isso da para fazer em docker?