-
Outra - Web, Mobile & Software
|
Intermediário |
Publicado:
|
Tempo restante: |
Propostas: 3 |
Interessados: 6
Descrição do projeto:
Estou procurando um desenvolvedor experiente para criar um indicador personalizado que exiba níveis de gama derivados de dados da CBOE diretamente nos gráficos do NinjaTrader 8 e MetaTrader 5.
Requisitos do indicador:
• Buscar diariamente os níveis de gama diretamente do site da CBOE ou outra fonte confiável (preferência por API; web scraping se necessário).
• Plotar no gráfico os seguintes elementos:
• Níveis de gama positiva e negativa.
• Gamma Flip (ponto onde a gama se inverte).
• Níveis com maior concentração de Open Interest (opcional).
• Atualização automática diária (com opção manual).
• Exibição visual clara com labels configuráveis.
Plataformas:
• NinjaTrader 8 (usando NinjaScript / C#).
• MetaTrader 5 (usando MQL5).
Diferenciais:
• Capacidade de armazenar os dados localmente para uso offline.
• Interface simples e limpa.
• Código comentado para facilitar manutenção futura.
Requisitos do profissional:
• Experiência comprovada em NinjaScript (NinjaTrader 8) e MQL5 (MetaTrader 5).
• Capacidade de integração com APIs ou web scraping.
• Entendimento de dados de opções e mercado derivativo é um diferencial.
Entregáveis esperados:
• Arquivo do indicador para NinjaTrader 8 (.zip ou .cs).
• Arquivo do indicador para MetaTrader 5 (.mq5 e .ex5).
• Documentação básica com instruções de instalação e uso.
Se você já trabalhou em projetos semelhantes (como indicadores baseados em opções ou integração com dados externos), por favor envie portfólio ou exemplos.
Cliente:
Chris T.
(Sem feedback)
-
Outra - Web, Mobile & Software
|
Intermediário |
Publicado:
|
Tempo restante: |
Propostas: 12 |
Interessados: 15
Desenvolver uma inteligência artificial (IA) capaz de navegar, coletar e estruturar dados específicos (descrição, link, preços e datas) de múltiplos sites de leilão online, salvando as informações extraídas em arquivos JSON separados por site.
Objetivos específicos:
• Capacidade de navegação inteligente: A IA deverá ser capaz de acessar e navegar dinamicamente em diferentes estruturas de sites de leilão, identificando as seções relevantes onde as informações dos leilões são apresentadas.
• Extração seletiva de dados: A IA deverá identificar e extrair com precisão os seguintes dados de cada item de leilão encontrado:
• Descrição: O texto descritivo do item leiloado.
• Link: O URL que direciona para a página de detalhes do leilão do item específico.
• Preços: O preço atual, lance inicial (se disponível) e outros preços relevantes (ex: preço de arremate, se já finalizado).
• Datas: A data e hora de início e término do leilão.
• Adaptabilidade a diferentes estruturas de sites: A IA deverá ser projetada para ser adaptável a variações na estrutura HTML e no layout de diferentes sites de leilão, minimizando a necessidade de reconfiguração completa para cada novo site.
• Formato de saída estruturado: Os dados extraídos de cada site de leilão deverão ser salvos em um arquivo JSON separado, onde a estrutura dos dados seja consistente e facilmente processável. A estrutura do JSON deverá refletir cada item de leilão como um objeto com os campos "descricao", "link", "precos" (com subcampos relevantes) e "datas" (com subcampos relevantes).
• Escalabilidade e eficiência: A solução deverá ser projetada com foco em escalabilidade para permitir a adição de novos sites de leilão e o processamento de um grande volume de dados de forma eficiente.
Funcionalidades principais:
• Módulo de configuração de sites: Uma interface (ou arquivo de configuração) onde novos sites de leilão podem ser adicionados, especificando as URLs de entrada.
• Módulo de navegação e identificação: Um componente da IA responsável por explorar as páginas dos sites de leilão e identificar os elementos HTML que contêm as informações relevantes.
• Módulo de extração de dados: Um componente da IA que, com base em regras ou modelos de aprendizado, extrai a descrição, link, preços e datas dos elementos identificados.
• Módulo de estruturação de dados: Um componente que organiza os dados extraídos em um formato JSON padronizado para cada item de leilão.
• Módulo de salvamento de dados: Um componente que salva os dados estruturados em arquivos JSON separados, nomeados de acordo com o site de origem (ex: megaleiloes.json, outro_leilao.json).
• Mecanismo de adaptação (opcional, mas desejável): Implementação de técnicas de aprendizado de máquina ou heurísticas avançadas para que a IA possa aprender padrões e se adaptar automaticamente a pequenas variações na estrutura dos sites, reduzindo a necessidade de intervenção manual constante.
Tecnologias potenciais:
• Linguagens de programação: Python (devido às suas bibliotecas robustas para web scraping e aprendizado de máquina).
• Bibliotecas de web scraping: BeautifulSoup, Scrapy, Selenium (para sites com conteúdo dinâmico).
• Bibliotecas de processamento de linguagem natural (NLP): Para auxiliar na identificação e extração de descrições relevantes.
• Bibliotecas de aprendizado de máquina (ML): TensorFlow, PyTorch, scikit-learn (para o mecanismo de adaptação, se implementado).
• Formato de dados: JSON.
Inteligência Artificial
JSON
Python
Cliente:
Thomaz F.
(Sem feedback)
-
Outra - Web, Mobile & Software
|
Especialista |
Publicado:
|
Tempo restante: |
Propostas: 4 |
Interessados: 12
Alguém sabe me dizer onde conseguir um bot Telegram, aqueles que fazem consultas de dados na Receita, puxam informações e têm integração a pagamentos por Pix?
Chatbot
Desenvolvimento de Software
Desenvolvimento Web
Web API
Web Scraping
Cliente:
Aninha V.
(Sem feedback)
-
Desenvolvimento Web
|
Intermediário |
Publicado:
|
Tempo restante: |
Propostas: 3 |
Interessados: 5
PROJETO: Desenvolvimento de Plugin WordPress - Scraper WooCommerce
1. CONTEXTO
Estamos desenvolvendo um e-commerce em WordPress + WooCommerce para uma marca de camisetas esportivas e buscamos um(a) desenvolvedor(a) experiente para criar um plugin personalizado que importe automaticamente produtos de uma loja WooCommerce externa.
A loja de origem utiliza WooCommerce e possui estrutura padrão de categorias, variações e múltiplas imagens por produto. A URL da loja será fornecida somente após a seleção do profissional.
2. OBJETIVO DO PLUGIN
O plugin deve:
• Realizar scraping direto (sem uso de API) da loja WooCommerce externa
• Importar os seguintes dados por produto:
• Nome
• Slug
• Categoria e subcategoria
• Descrição (curta e completa)
• Preço
• Todas as imagens em alta qualidade
• Variações (exemplo: tamanhos, cores)
• Estoque (se disponível)
• Atributos adicionais (quando existirem)
• Organizar os dados no WooCommerce local:
• Inserir os produtos no banco de dados como produtos WooCommerce padrão
• Associar corretamente imagens, categorias e variações
• Criar os produtos como “rascunho” ou “privado” (configurável)
• Registrar a origem:
• Armazenar a URL de origem e a categoria original
• Atribuir um identificador único ao produto (slug ou ID original)
• Gravar data e hora de importação
• Impedir duplicações:
• Verificar se o produto já foi importado anteriormente antes de inseri-lo novamente
• Suportar atualização incremental:
• Usar WP-Cron ou Cron externo para agendamentos
• Buscar apenas produtos novos a cada execução
3. REQUISITOS TÉCNICOS
• Compatível com WordPress 6.x e WooCommerce 8.x
• Código limpo, bem estruturado e comentado
• Interface no painel WordPress com:
• Campo para definir a URL de origem
• Botão para iniciar importação manual
• Lista dos últimos produtos importados
• Mapeamento de categorias
• Logs de execução e erros
• Compatível com instalações multisite
• Preferência por scraping via requests (sem uso de navegador headless)
• Uso de bibliotecas seguras como Guzzle, Simple HTML DOM ou similares
4. DIFERENCIAIS (NÃO OBRIGATÓRIOS, MAS DESEJÁVEIS)
• Logs exportáveis em CSV
• Função de reimportação manual de produtos específicos
• Suporte futuro a múltiplas lojas de origem
• Conversão opcional das imagens para WebP
• Detecção de produtos removidos ou inativos no site de origem
5. OBSERVAÇÕES IMPORTANTES
• O projeto envolve scraping direto do HTML, sem uso de API pública
• É necessário interpretar e estruturar dados a partir do HTML da loja
• Espera-se que o profissional tenha familiaridade com a estrutura WooCommerce
6. ENTREGÁVEIS
• Plugin em formato .zip pronto para instalação
• Código-fonte completo, aberto e documentado
• Manual de instalação e uso (README)
• Garantia de 30 dias para correções de bugs
7. PRAZO
• Estimado: entre 10 a 15 dias corridos
• Propostas com prazo superior serão aceitas se justificadas pela complexidade e qualidade
8. PERFIL DESEJADO DO PROFISSIONAL
• Experiência em desenvolvimento de plugins para WordPress
• Domínio em WooCommerce e scraping em PHP
• Conhecimentos em segurança e performance no WordPress
• Boa comunicação durante o processo
Interessados, por favor, enviem:
• Portfólio de plugins ou projetos semelhantes
• Proposta técnica com prazo e valor
• Dúvidas que julgarem necessárias para estimar com precisão.
Construção de Website
Desenvolvimento Web
Plugin
WooCommerce
Wordpress
Cliente:
Henrique D.
(Sem feedback)
-
Outra - Web, Mobile & Software
|
Especialista |
Publicado:
|
Tempo restante: |
Propostas: 3 |
Interessados: 4
O objetivo desse trabalho é:
Desenvolver um app replicador para a casa de apostas SuperBet (superbet.bet.br).
O replicador deve:
• Receber e armazenar contas de usuários da casa de apostas;
• Definir o valor a ser apostado em cada aposta;
• Conseguir contabilizar o valor lucrado em apostas feitas por ele;
• Receber apostas, seja de um humano que vai efetivamente apostar em sua própria conta, ou de alguma mensagem do Telegram ou serviço externo, de forma automática;
• Ser capaz de identificar quando uma conta precisa fazer validação facial (ao ser solicitada a validação, o usuário fica sem conseguir acessar a conta);
• Caso uma conta não consiga pegar uma aposta, o replicador deve ser capaz de identificar o motivo de não ter sido pega (exemplo: a odd caiu muito).
Busco um software de fato completo e, preferencialmente, um dev que tenha interesse em progredir comigo em projetos semelhantes, principalmente em expansão para outras casas de apostas.
Web Scraping
Cliente:
Enzo O.
(3
avaliações)
-
Desenvolvimento Web
|
Intermediário |
Publicado:
|
Tempo restante: |
Propostas: 33 |
Interessados: 47
Quero gerar uma planilha Google com dados dos preços de alguns supermercados (site e iFood).
Deverá ser feito em Python.
Python
Cliente:
Peri _
(3
avaliações)
-
Outra - Web, Mobile & Software
|
Iniciante |
Publicado:
|
Tempo restante: |
Propostas: 28 |
Interessados: 41
Procuro um desenvolvedor para criar um bot (script de automação) que monitore a disponibilidade de estoque de produtos específicos em um site de e-commerce. O objetivo é ser notificado imediatamente quando um item de interesse voltar a ficar disponível para compra, pois costumam esgotar rapidamente.
Requisitos principais:
1. O bot deve verificar periodicamente as páginas de produtos definidos em um site de e-commerce específico (URL será fornecida).
2. Deve identificar quando o status do produto muda de "Indisponível" (ou similar) para um estado que permita a compra.
3. Ao detectar a disponibilidade, deve enviar uma notificação imediata (método a ser definido: e-mail, Telegram, etc.).
4. Deve ser configurável para adicionar/remover URLs de produtos a serem monitorados.
Por favor, informe sua abordagem, tecnologias, tempo estimado e orçamento.
Python
Web Scraping
Cliente:
Cicero Q.
(4
avaliações)
-
Outra - Web, Mobile & Software
|
Iniciante |
Publicado:
|
Tempo restante: |
Propostas: 11 |
Interessados: 16
Estou buscando um(a) profissional experiente para desenvolver um sistema automatizado que monitore, identifique e envie alertas de passagens aéreas promocionais com milhas (tarifas award) nos sites das principais companhias (LATAM, GOL, Azul, etc).
O sistema deverá:
• Monitorar automaticamente sites e programas de fidelidade em busca de promoções com milhas;
• Filtrar ofertas com base em critérios como datas, valores e destinos;
• Registrar essas ofertas em Google Sheets ou painel web;
• Enviar as ofertas automaticamente para Telegram ou WhatsApp (via Z-API ou alternativa);
• Ser entregue com documentação básica para uso e manutenção.
Habilidades desejadas:
• Web Scraping (Python com BeautifulSoup/Selenium, ou outra tecnologia)
• Integração com APIs (se aplicável)
• Automatizações com Make, Zapier ou scripts customizados
• Bots para WhatsApp e/ou Telegram
• Noções básicas de UI para painel web (desejável)
Entregáveis esperados:
• Robô minerador funcional
• Integração com Google Sheets ou painel para visualização
• Envio automatizado para grupo de WhatsApp/Telegram
• Suporte básico na implementação inicial
• Documentação técnica simples
Observações:
• Já tenho uma ideia clara do fluxo e posso orientar durante o projeto;
• Busco alguém que possa entregar um sistema funcional e confiável;
• Projetos futuros poderão ser negociados, caso o resultado seja satisfatório.
Google APIs
Makerbot
Python
Scrapy
Web Scraping
Cliente:
Renata
(Sem feedback)
-
Outra - Web, Mobile & Software
|
Intermediário |
Publicado:
|
Tempo restante: |
Propostas: 10 |
Interessados: 16
Automação utilizando inteligência artificial, de modo a agilizar a elaboração em massa de minutas de documentos de forma adaptada e inteligente, com base na íntegra do arquivo do processo judicial (PJe) e em ofícios internos que serão utilizados como subsídios.
Inteligência Artificial
Python
RESTful API
Web Scraping
Cliente:
Luiz V.
(Sem feedback)
-
Outra - Web, Mobile & Software
|
Iniciante |
Publicado:
|
Tempo restante: |
Propostas: 27 |
Interessados: 40
Estou em busca de um profissional para desenvolver um script de web scraping que extraia informações de produtos de um e-commerce específico e envie esses dados para a minha conta no Bling. O objetivo é automatizar a coleta de informações, como nome, preço, descrição e categorias dos produtos, para otimizar a gestão do meu estoque.
Requisitos do projeto:
• Desenvolver um script de scraping para coletar dados do site de e-commerce mencionado.
• O script deve conseguir extrair as informações de produtos por categoria, conforme disponíveis no site.
• Os dados extraídos devem ser formatados conforme as necessidades da API do Bling (versão 3), incluindo variações de produtos (tamanho, cor, etc.).
• O script deverá permitir o envio direto para o Bling sem a necessidade de um ambiente virtual.
• Incluir autenticação de login e tratamento de erros do processo de raspagem.
• A solução deve ser eficiente e otimizada para garantir uma execução rápida.
Tecnologias desejadas:
• Python (bibliotecas como BeautifulSoup, Requests ou Scrapy, por exemplo).
• Conhecimento da API do Bling v3 para integração.
• Capacidade de gerar um arquivo de dados compatível com o Bling (por exemplo, em JSON ou XML).
Requisitos adicionais:
• Experiência prévia em projetos de web scraping e integração com APIs.
• Capacidade de fornecer documentação clara para a implementação.
• Facilidade de comunicação e feedback rápido.
Cliente:
Victor G.
(15
avaliações)