Pesquisar

Resultado da pesquisa

5 projetos foram encontrados

Publique um projeto. É grátis.
(+) Filtros

Palavras-chaves

Categorias

Todas as categorias

Administração & Contabilidade

Advogados & Leis

Atendimento ao Consumidor

Design & Criação

Educação & Consultoria

Engenharia & Arquitetura

Escrita

Fotografia & AudioVisual

Suporte Administrativo

Tradução

Vendas & Marketing

Web, Mobile & Software

Tipo de projeto

Todos os projetos

Data da publicação

Qualquer hora

Menos de 24 horas atrás

Menos de 3 dias atrás

Ranking do cliente

Qualquer ranking

5 estrelas

Pelo menos 4.5 estrelas

Pelo menos 4 estrelas

Sem feedback

Nível de experiência

Todos os níveis de experiência

(+) Filtros
1
  • Projeto exclusivo

    Integração de dados para planilha modelo

    Banco de Dados | Intermediário | Publicado: | Tempo restante: | Propostas: 21 | Interessados: 32

    Preciso da integração de dados de um sistema que gera a extração em arquivos CSV ou XML para uma planilha padrão a ser inserida em outro sistema.

    Seria para a migração de dados de clientes.

    Análise de Dados Armazenagem de Dados Banco De Dados Extração de Dados Integração de Dados

    Cliente: (Sem feedback)

  • Projeto exclusivo

    Automatização e harmonização de dados

    Desenvolvimento Web | Intermediário | Publicado: | Tempo restante: | Propostas: 2 | Interessados: 6

    Ajustes e automatizações no Tiny ERP, além da extração de certos dados para a construção de um dashboard da empresa.

    ERP Extração de Dados Raspagem de Dados RESTful API Visualização de Dados

    Cliente: (Sem feedback)

  • Robô de orçamento automatizado

    Outra - Web, Mobile & Software | Especialista | Publicado: | Tempo restante: | Propostas: 11 | Interessados: 17

    Projeto: Robô de orçamento automatizado com IA, scraping e geração de PDF

    Objetivo
    Desenvolver um robô que receba mensagens com pedidos de orçamento via WhatsApp ou e-mail, interprete automaticamente as informações do solicitante, consulte preços em site externo via web scraping, aplique uma margem definida e envie ao cliente uma proposta formatada em PDF com os dados calculados.

    Escopo do projeto
    1. Entrada de solicitação
    O robô será ativado por mensagens recebidas via WhatsApp API ou formulário web.
    O conteúdo da mensagem será de linguagem livre, informal ou técnica, e poderá conter diversas variações.
    A inteligência artificial (GPT/OpenAI) será responsável por interpretar o conteúdo da mensagem e extrair os seguintes dados:
    • Nome do item
    • Características principais
    • Quantidade
    • Qualquer informação adicional relevante

    2. Consulta em site de terceiros (scraping)
    Desenvolver robô de scraping (preferencialmente com Apify ou Puppeteer) para acessar site(s) de fornecedor(es) e buscar o item com base nas informações estruturadas.
    O scraping deve retornar:
    • Nome do item encontrado
    • Valor unitário
    • Disponibilidade ou prazo (se houver)

    3. Cálculo e lógica comercial
    Aplicar margem percentual fixa (ex: 40%) sobre o valor obtido.
    Calcular o valor total com base na quantidade interpretada.
    Gerar a resposta formatada com:
    • Nome do item interpretado
    • Preço ajustado com margem
    • Quantidade
    • Prazo e observações

    4. Geração e envio da proposta
    Gerar um documento PDF padronizado com a proposta comercial formatada.
    O PDF deve conter:
    • Logo e dados da empresa
    • Dados do solicitante (se presentes)
    • Itens orçados com valores
    • Total final, prazo e condições
    Enviar o PDF ao cliente via WhatsApp API ou e-mail (automático)

    5. Registro de atividades
    Salvar todas as solicitações e respostas em planilha (Google Sheets) ou banco de dados leve, incluindo:
    • Dados recebidos
    • Resposta estruturada
    • Produto consultado e valor encontrado
    • Proposta gerada

    Requisitos do profissional
    • Experiência com integração da OpenAI API (GPT-3.5 ou GPT-4) para extração de dados estruturados
    • Conhecimento em web scraping (Apify, Puppeteer ou outro)
    • Habilidade com n8n (ou Make/Zapier) para orquestrar o fluxo
    • Integração com WhatsApp API oficial para envio automático
    • Conhecimento em geração programática de PDFs
    • Boa documentação e organização do projeto

    Entregáveis esperados
    Robô funcional com:
    • Interpretação automatizada via IA
    • Busca do item via scraping
    • Cálculo de margem e total
    • Proposta gerada em PDF
    • Envio automático da proposta
    • Fluxo configurado no n8n ou similar
    • Planilha ou painel com registro das atividades
    • Tutorial de uso (PDF ou vídeo explicativo)

    Orçamento
    Propostas com valor fixo.
    Portfólio ou exemplos semelhantes são bem-vindos.
    Disponibilidade para suporte ou futuras expansões será considerada um diferencial.

    Cliente: Contato M. (Sem feedback)

  • Python e IA para coleta de dados de sites de leilão online

    Outra - Web, Mobile & Software | Intermediário | Publicado: | Tempo restante: | Propostas: 14 | Interessados: 18

    Desenvolver uma inteligência artificial (IA) capaz de navegar, coletar e estruturar dados específicos (descrição, link, preços e datas) de múltiplos sites de leilão online, salvando as informações extraídas em arquivos JSON separados por site.

    Objetivos específicos:

    • Capacidade de navegação inteligente: A IA deverá ser capaz de acessar e navegar dinamicamente em diferentes estruturas de sites de leilão, identificando as seções relevantes onde as informações dos leilões são apresentadas.

    • Extração seletiva de dados: A IA deverá identificar e extrair com precisão os seguintes dados de cada item de leilão encontrado:
    • Descrição: O texto descritivo do item leiloado.
    • Link: O URL que direciona para a página de detalhes do leilão do item específico.
    • Preços: O preço atual, lance inicial (se disponível) e outros preços relevantes (ex: preço de arremate, se já finalizado).
    • Datas: A data e hora de início e término do leilão.

    • Adaptabilidade a diferentes estruturas de sites: A IA deverá ser projetada para ser adaptável a variações na estrutura HTML e no layout de diferentes sites de leilão, minimizando a necessidade de reconfiguração completa para cada novo site.

    • Formato de saída estruturado: Os dados extraídos de cada site de leilão deverão ser salvos em um arquivo JSON separado, onde a estrutura dos dados seja consistente e facilmente processável. A estrutura do JSON deverá refletir cada item de leilão como um objeto com os campos "descricao", "link", "precos" (com subcampos relevantes) e "datas" (com subcampos relevantes).

    • Escalabilidade e eficiência: A solução deverá ser projetada com foco em escalabilidade para permitir a adição de novos sites de leilão e o processamento de um grande volume de dados de forma eficiente.

    Funcionalidades principais:

    • Módulo de configuração de sites: Uma interface (ou arquivo de configuração) onde novos sites de leilão podem ser adicionados, especificando as URLs de entrada.

    • Módulo de navegação e identificação: Um componente da IA responsável por explorar as páginas dos sites de leilão e identificar os elementos HTML que contêm as informações relevantes.

    • Módulo de extração de dados: Um componente da IA que, com base em regras ou modelos de aprendizado, extrai a descrição, link, preços e datas dos elementos identificados.

    • Módulo de estruturação de dados: Um componente que organiza os dados extraídos em um formato JSON padronizado para cada item de leilão.

    • Módulo de salvamento de dados: Um componente que salva os dados estruturados em arquivos JSON separados, nomeados de acordo com o site de origem (ex: megaleiloes.json, outro_leilao.json).

    • Mecanismo de adaptação (opcional, mas desejável): Implementação de técnicas de aprendizado de máquina ou heurísticas avançadas para que a IA possa aprender padrões e se adaptar automaticamente a pequenas variações na estrutura dos sites, reduzindo a necessidade de intervenção manual constante.

    Tecnologias potenciais:

    • Linguagens de programação: Python (devido às suas bibliotecas robustas para web scraping e aprendizado de máquina).

    • Bibliotecas de web scraping: BeautifulSoup, Scrapy, Selenium (para sites com conteúdo dinâmico).

    • Bibliotecas de processamento de linguagem natural (NLP): Para auxiliar na identificação e extração de descrições relevantes.

    • Bibliotecas de aprendizado de máquina (ML): TensorFlow, PyTorch, scikit-learn (para o mecanismo de adaptação, se implementado).

    • Formato de dados: JSON.

    Inteligência Artificial JSON Python

    Cliente: Thomaz F. (Sem feedback)

  • Integrar ferramentas de análise e geração de relatórios

    Outra - Web, Mobile & Software | Iniciante | Publicado: | Tempo restante: | Propostas: 10 | Interessados: 15

    Estamos buscando um desenvolvedor para realizar a integração de duas ferramentas essenciais para o nosso e-commerce: Google Analytics e Google Search Console. O objetivo é criar um sistema simples de coleta e exibição de dados, gerando relatórios automáticos que podem ser acessados diretamente pela nossa equipe de marketing.

    A tarefa envolve a integração das APIs do Google Analytics e Google Search Console, coletando informações sobre o tráfego do site, palavras-chave e o desempenho geral. Em seguida, o sistema deve gerar um relatório básico com essas informações, apresentado de forma clara em uma página simples ou planilha.

    A implementação deve ser ágil, garantindo que a coleta de dados e a geração do relatório sejam feitas de maneira eficiente e sem a necessidade de automações complexas. O sistema precisa ser facilmente acessível e possibilitar a exportação dos relatórios gerados.

    Análise de Dados Banco De Dados Ciência de Dados Extração de Dados Programação de Banco de Dados

    Cliente: Francisco V. (Sem feedback)

Carregando...

Carregando...

Pesquisar

FREELANCERS
PROJETOS
Ocorreu um erro inesperado. Caso o erro persista, entre em contato conosco através do e-mail suporte@99freelas.com.br.