Pesquisar

Resultado da pesquisa

5 projetos foram encontrados

Publique um projeto. É grátis.
(+) Filtros

Palavras-chaves

Categorias

Todas as categorias

Administração & Contabilidade

Advogados & Leis

Atendimento ao Consumidor

Design & Criação

Educação & Consultoria

Engenharia & Arquitetura

Escrita

Fotografia & AudioVisual

Suporte Administrativo

Tradução

Vendas & Marketing

Web, Mobile & Software

Tipo de projeto

Todos os projetos

Data da publicação

Qualquer hora

Menos de 24 horas atrás

Menos de 3 dias atrás

Ranking do cliente

Qualquer ranking

5 estrelas

Pelo menos 4.5 estrelas

Pelo menos 4 estrelas

Sem feedback

Nível de experiência

Todos os níveis de experiência

(+) Filtros
1
  • Projeto exclusivo

    Projeto de Inclusão Social - Web Scraping para Busca de Vagas

    Desenvolvimento Web | Intermediário | Publicado: | Tempo restante: | Propostas: 1 | Interessados: 1

    Contexto

    A Diversidade Contábil Assessoria inicia um projeto voluntário de mentoria na área financeira. Buscamos um web scraper para coletar vagas de emprego, apoiando mentorados no diagnóstico do mercado.

    Sobre o Solicitante

    Projeto: Diversidade Contábil Assessoria.

    Conhecimento: Básico em Python; desejo editar o código posteriormente.

    Site: Em desenvolvimento, sem local definido para salvar dados.

    Armazenamento: Não definido; preciso de sugestões.

    Escopo

    Funcionalidades

    Web Scraping:

    Coletar vagas em sites (ex.: LinkedIn, Catho, Indeed).

    Dados:

    Título, empresa, localização, salário.

    Requisitos, descrição, link, data.

    Filtros por palavras-chave (ex.: "analista financeiro").

    Automatização:

    Execução automática (diária/semanal).

    Tratamento de erros (ex.: bloqueios).

    Armazenamento (sugestões):

    CSV/Excel (local, simples).

    SQLite (leve, Python).

    Google Sheets (online, compartilhável).

    MySQL (se hospedado).

    Relatórios:

    Resumo de vagas (totais, salários, locais).

    Formato: CSV, Excel ou Jupyter Notebook.

    Requisitos Técnicos

    Linguagem: Python.

    Bibliotecas:

    BeautifulSoup/Scrapy (scraping).

    Selenium (sites dinâmicos).

    Pandas (dados).

    Requests (acesso).

    Código:

    Modular, comentado, editável.

    README com instruções.

    Compatibilidade: Local (Windows/Linux), adaptável para nuvem.

    Ética: Delays e cabeçalhos para respeitar sites.

    Entregáveis

    Código: Script Python funcional.

    Armazenamento: Configuração inicial (ex.: CSV, SQLite).

    Relatórios: Modelo básico.

    Treinamento: 1-2 horas (videochamada, gravada).

    Documentação: Guia para uso e ajustes.

    Precificação

    Horas de desenvolvimento: Estimar para script, armazenamento, relatórios.

    Horas de treinamento: 1-2 horas.

    Suporte (opcional): Custo por hora pós-entrega.

    Detalhar: Custo total e valor/hora.

    Cronograma

    Planejamento: 1 semana (sites, armazenamento).

    Desenvolvimento: 2-3 semanas (script, testes).

    Treinamento e Entrega: 1 semana.

    Total: 4-5 semanas.

    Expectativas

    Atualizações semanais.

    Código editável por iniciante em Python.

    Garantia de 15 dias para bugs.

    Sugestões para armazenamento/relatórios.

    Informações

    Orçamento: Aberto, detalhar horas/custos.

    Prazo para propostas: [inserir data, ex.: 25/05/2025].

    Contato: Via 99Freelas ou [inserir e-mail].

    Seleção

    Experiência com web scraping/Python.

    Clareza na proposta.

    Comunicação acessível.

    Nota: Projeto inicial com potencial de expansão (ex.: integração com site). Busco solução simples e editável.
    https://diversidadecontabil.com.br/

    Python Web Scraping

    Cliente: (Sem feedback)

  • Python e IA para coleta de dados de sites de leilão online

    Outra - Web, Mobile & Software | Intermediário | Publicado: | Tempo restante: | Propostas: 14 | Interessados: 18

    Desenvolver uma inteligência artificial (IA) capaz de navegar, coletar e estruturar dados específicos (descrição, link, preços e datas) de múltiplos sites de leilão online, salvando as informações extraídas em arquivos JSON separados por site.

    Objetivos específicos:

    • Capacidade de navegação inteligente: A IA deverá ser capaz de acessar e navegar dinamicamente em diferentes estruturas de sites de leilão, identificando as seções relevantes onde as informações dos leilões são apresentadas.

    • Extração seletiva de dados: A IA deverá identificar e extrair com precisão os seguintes dados de cada item de leilão encontrado:
    • Descrição: O texto descritivo do item leiloado.
    • Link: O URL que direciona para a página de detalhes do leilão do item específico.
    • Preços: O preço atual, lance inicial (se disponível) e outros preços relevantes (ex: preço de arremate, se já finalizado).
    • Datas: A data e hora de início e término do leilão.

    • Adaptabilidade a diferentes estruturas de sites: A IA deverá ser projetada para ser adaptável a variações na estrutura HTML e no layout de diferentes sites de leilão, minimizando a necessidade de reconfiguração completa para cada novo site.

    • Formato de saída estruturado: Os dados extraídos de cada site de leilão deverão ser salvos em um arquivo JSON separado, onde a estrutura dos dados seja consistente e facilmente processável. A estrutura do JSON deverá refletir cada item de leilão como um objeto com os campos "descricao", "link", "precos" (com subcampos relevantes) e "datas" (com subcampos relevantes).

    • Escalabilidade e eficiência: A solução deverá ser projetada com foco em escalabilidade para permitir a adição de novos sites de leilão e o processamento de um grande volume de dados de forma eficiente.

    Funcionalidades principais:

    • Módulo de configuração de sites: Uma interface (ou arquivo de configuração) onde novos sites de leilão podem ser adicionados, especificando as URLs de entrada.

    • Módulo de navegação e identificação: Um componente da IA responsável por explorar as páginas dos sites de leilão e identificar os elementos HTML que contêm as informações relevantes.

    • Módulo de extração de dados: Um componente da IA que, com base em regras ou modelos de aprendizado, extrai a descrição, link, preços e datas dos elementos identificados.

    • Módulo de estruturação de dados: Um componente que organiza os dados extraídos em um formato JSON padronizado para cada item de leilão.

    • Módulo de salvamento de dados: Um componente que salva os dados estruturados em arquivos JSON separados, nomeados de acordo com o site de origem (ex: megaleiloes.json, outro_leilao.json).

    • Mecanismo de adaptação (opcional, mas desejável): Implementação de técnicas de aprendizado de máquina ou heurísticas avançadas para que a IA possa aprender padrões e se adaptar automaticamente a pequenas variações na estrutura dos sites, reduzindo a necessidade de intervenção manual constante.

    Tecnologias potenciais:

    • Linguagens de programação: Python (devido às suas bibliotecas robustas para web scraping e aprendizado de máquina).

    • Bibliotecas de web scraping: BeautifulSoup, Scrapy, Selenium (para sites com conteúdo dinâmico).

    • Bibliotecas de processamento de linguagem natural (NLP): Para auxiliar na identificação e extração de descrições relevantes.

    • Bibliotecas de aprendizado de máquina (ML): TensorFlow, PyTorch, scikit-learn (para o mecanismo de adaptação, se implementado).

    • Formato de dados: JSON.

    Inteligência Artificial JSON Python

    Cliente: Thomaz F. (Sem feedback)

  • Desenvolvedor para sistema de mineração de passagens aéreas com milhas

    Outra - Web, Mobile & Software | Iniciante | Publicado: | Tempo restante: | Propostas: 12 | Interessados: 17

    Estou buscando um(a) profissional experiente para desenvolver um sistema automatizado que monitore, identifique e envie alertas de passagens aéreas promocionais com milhas (tarifas award) nos sites das principais companhias (LATAM, GOL, Azul, etc).

    O sistema deverá:
    • Monitorar automaticamente sites e programas de fidelidade em busca de promoções com milhas;
    • Filtrar ofertas com base em critérios como datas, valores e destinos;
    • Registrar essas ofertas em Google Sheets ou painel web;
    • Enviar as ofertas automaticamente para Telegram ou WhatsApp (via Z-API ou alternativa);
    • Ser entregue com documentação básica para uso e manutenção.

    Habilidades desejadas:
    • Web Scraping (Python com BeautifulSoup/Selenium, ou outra tecnologia)
    • Integração com APIs (se aplicável)
    • Automatizações com Make, Zapier ou scripts customizados
    • Bots para WhatsApp e/ou Telegram
    • Noções básicas de UI para painel web (desejável)

    Entregáveis esperados:
    • Robô minerador funcional
    • Integração com Google Sheets ou painel para visualização
    • Envio automatizado para grupo de WhatsApp/Telegram
    • Suporte básico na implementação inicial
    • Documentação técnica simples

    Observações:
    • Já tenho uma ideia clara do fluxo e posso orientar durante o projeto;
    • Busco alguém que possa entregar um sistema funcional e confiável;
    • Projetos futuros poderão ser negociados, caso o resultado seja satisfatório.

    Google APIs Makerbot Python Scrapy Web Scraping

    Cliente: Renata (Sem feedback)

  • Web scraping com integração via API

    Outra - Web, Mobile & Software | Iniciante | Publicado: | Tempo restante: | Propostas: 28 | Interessados: 41

    Estou em busca de um profissional para desenvolver um script de web scraping que extraia informações de produtos de um e-commerce específico e envie esses dados para a minha conta no Bling. O objetivo é automatizar a coleta de informações, como nome, preço, descrição e categorias dos produtos, para otimizar a gestão do meu estoque.

    Requisitos do projeto:

    • Desenvolver um script de scraping para coletar dados do site de e-commerce mencionado.
    • O script deve conseguir extrair as informações de produtos por categoria, conforme disponíveis no site.
    • Os dados extraídos devem ser formatados conforme as necessidades da API do Bling (versão 3), incluindo variações de produtos (tamanho, cor, etc.).
    • O script deverá permitir o envio direto para o Bling sem a necessidade de um ambiente virtual.
    • Incluir autenticação de login e tratamento de erros do processo de raspagem.
    • A solução deve ser eficiente e otimizada para garantir uma execução rápida.

    Tecnologias desejadas:

    • Python (bibliotecas como BeautifulSoup, Requests ou Scrapy, por exemplo).
    • Conhecimento da API do Bling v3 para integração.
    • Capacidade de gerar um arquivo de dados compatível com o Bling (por exemplo, em JSON ou XML).

    Requisitos adicionais:

    • Experiência prévia em projetos de web scraping e integração com APIs.
    • Capacidade de fornecer documentação clara para a implementação.
    • Facilidade de comunicação e feedback rápido.

    Cliente: Victor G. (15 avaliações)

  • Solução para requisições falhando no Scrapy

    Outra - Web, Mobile & Software | Especialista | Publicado: | Tempo restante: | Propostas: 14 | Interessados: 19

    Preciso de uma solução para as requisições que falham nas requisições que meu crawler faz. Algumas falhas são causadas por timeouts, enquanto outras são bloqueios por geolocalização, entre outros problemas.

    Faço mais de 1 milhão de requisições diariamente.

    Python Scrapy Web Scraping

    Cliente: Marcello G. (29 avaliações)

Carregando...

Carregando...

Pesquisar

FREELANCERS
PROJETOS
Ocorreu um erro inesperado. Caso o erro persista, entre em contato conosco através do e-mail suporte@99freelas.com.br.