Criando uma API para LLM Local (Llama 2 7b + Fast API)
Para criar uma API para LLM Local usando Llama 2 7b e Fast API, siga os passos abaixo:
- Instale o Llama 2 7b em seu ambiente local
- Instale o Fast API usando pip:
pip install fastapi
Crie um arquivo com o seguinte código para definir sua API:
from fastapi import FastAPI
app = FastAPI()
@app.get("/")
def read_root():
return {"Hello": "World"}
Execute o servidor Fast API com o seguinte comando:
uvicorn main:app --reload
Agora sua API estará funcionando em http://localhost:8000. Você pode acessar esta URL para testar sua API.
Este é apenas um exemplo simples de como criar uma API para LLM Local usando Llama 2 7b e Fast API. Você pode personalizar e expandir este código conforme suas necessidades.
Muito bom irmão
cara isso da para fazer em docker?