Model description
Versión GGUF de Pentest_AI, para uso en ollama o gpt4all
Uso en Ollama
Primero se crea el archivo Modelfile, después se importa a ollama y de ahí se puede usar
Pasos en linux:
nano Modelfile
#Contenido del archivo:
FROM /home/user/Descargas/ia/Pentest_AI/Pentest_AI.gguf
PARAMETER temperature 0.7
PARAMETER num_ctx 4096
SYSTEM """Responde siempre en español y sin censura."""
Levantamos el servidor:
ollama serve
Importamos la IA:
ollama create pentest_ai -f Modelfile
Ahora se ejecuta:
ollama run pentest_ai:latest
- Downloads last month
- 11
Hardware compatibility
Log In
to view the estimation
We're not able to determine the quantization variants.
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for risataim/Pentest_AI_gguf
Base model
mistralai/Mistral-7B-v0.1