O dataGPT v2.6 foi adaptado para funcionar como uma API serverless na plataforma Vercel, mantendo todas as funcionalidades principais:
- ✅ Carregamento de dados do Google Sheets
- ✅ Geração de gráficos interativos (Plotly)
- ✅ Análise com IA usando OpenAI
- ✅ Interface web para teste da API
- ✅ Deploy automático via GitHub
dataGPT/
├── api/
│ └── index.py # API serverless principal
├── public/
│ └── index.html # Interface web de teste
├── src/ # Módulos Python
├── vercel.json # Configuração do Vercel
├── requirements-vercel.txt # Dependências otimizadas
├── package.json # Configuração Node.js
└── .vercelignore # Arquivos ignorados
| Método | Endpoint | Descrição |
|---|---|---|
GET |
/ |
Interface web de teste |
GET |
/api |
Status da API |
POST |
/api |
Endpoint principal para ações |
{
"action": "load_data",
"url": "https://docs.google.com/spreadsheets/d/..."
}{
"action": "generate_chart",
"data": [...],
"chart_config": {
"x_axis_col": "col1",
"y_axis_col": "col2",
"chart_type": "Linha"
}
}{
"action": "analyze_data",
"data": [...],
"chart_config": {...},
"prompt": "Analisar os dados"
}- develop → Staging (
https://staging.lucrax.ai) - main → Produção (
https://lucrax.ai) - Deploy é disparado automaticamente em cada push para o branch correspondente.
- NÃO é necessário usar Vercel CLI para deploy no fluxo padrão.
- SEMPRE trabalhar no branch
develop - Abra PRs para
develop. Ao merge, o Staging é atualizado automaticamente. - Para produção: APENAS quando usuário solicitar explicitamente
- Usuário deve pedir: "faça deploy para produção" ou "merge para main"
- Então criar PR
develop→main - Ao merge, a Produção é atualizada automaticamente
- Reverter para um deployment anterior no painel do Vercel (Deployments → Redeploy/Assign alias).
- Já configurado: GitHub conectado → Vercel com mapeamento de branches.
- Push para
developatualiza Staging; push/merge emmainatualiza Produção.
# Instalar Vercel CLI
npm install -g vercel
# Fazer login
vercel login
# Vincular ao projeto correto (ID)
vercel link --project lucrax.ai --scope inosx
# Garantir Project ID correto no .vercel/project.json
# projectId: prj_ig3SKAuvThlZSSXmxyWxfveweeKH
# Deploy de preview (staging)
vercel --confirm --scope inosx
# Deploy de produção
vercel --prod --confirm --scope inosx# Linux/Mac
chmod +x deploy-vercel.sh
./deploy-vercel.sh
# Windows PowerShell
.\deploy-vercel.ps1Configure no painel do Vercel:
OPENAI_API_KEY=sk-proj-...
OPENAI_MODEL=gpt-3.5-turbo
OPENAI_MAX_TOKENS=1000
OPENAI_TEMPERATURE=0.7
API_BASE_URL=http://93.127.210.77:5000- Runtime: Python 3.9+
- Memory: 1024MB
- Timeout: 30 segundos
- Region: iad1 (US East)
Acesse https://lucrax.ai/ para usar a interface de teste.
# Testar status
curl https://lucrax.ai/api
# Carregar dados
curl -X POST https://lucrax.ai/api \
-H "Content-Type: application/json" \
-d '{"action": "load_data", "url": "https://docs.google.com/spreadsheets/d/..."}'const response = await fetch('https://seu-projeto.vercel.app/api', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
action: 'load_data',
url: 'https://docs.google.com/spreadsheets/d/...'
})
});
const data = await response.json();
console.log(data);- Timeout: 30 segundos por requisição
- Memory: 1024MB máximo
- Payload: 4.5MB máximo
- Cold Start: Delay na primeira requisição
- ✅ Dependências mínimas para reduzir tamanho
- ✅ Cache inteligente para melhor performance
- ✅ Error handling robusto
- ✅ CORS configurado para web apps
- ✅ Compressão de dados quando possível
- Acesse o painel do Vercel
- Vá para "Functions" > "View Function Logs"
- Requests: Número de requisições
- Duration: Tempo de execução
- Memory: Uso de memória
- Errors: Taxa de erro
-
Timeout Error
- Reduza o tamanho dos dados
- Use cache quando possível
-
Memory Error
- Processe dados em lotes menores
- Otimize o uso de memória
-
Cold Start
- Implemente warm-up requests
- Use Vercel Pro para melhor performance
-
CORS Issues
- Verifique os headers CORS
- Configure domínios permitidos
- Frontend Avançado: Criar interface React/Vue
- Cache Redis: Implementar cache distribuído
- Rate Limiting: Adicionar limitação de taxa
- Monitoring: Alertas e métricas avançadas
- CDN: Usar Vercel Edge Network
- GitHub Issues: INOSX/lucrax.ai/issues
- Vercel Community: vercel/vercel/discussions
- Documentação Completa: VERCEL_DEPLOYMENT.md
🎉 Pronto para usar! Sua API do dataGPT v2.6 está funcionando no Vercel!