INTELIGÊNCIA ARTIFICIAL: Empreendedor de São João del-Rei cria versão própria do ChatGPT4

Como Criei A Minha Versão do ChatGPT4 com Reconhecimento de Imagem, Áudio e Capacidade de Falar Em Menos de 3 Semanas

Foto de capa: Eu e o Prof. Leonardo no dia 2 de outubro, quando apresentei para ele a minha versão do ChatGPT4.

 
Tenho agência de mídias sociais há mais de 7 anos e hoje também sou programador no-code certificado pela Comunidade Sem Codar, do Renato Asse (que é a maior autoridade em no-code do mundo) e no dia 24 de setembro, finalizei a minha versão 1.0 do ChatGPT.
 
Comecei o projeto por diversão, nas “horas vagas” e acabei tendo meu primeiro assinante no dia 25.
 
O segundo assinante veio no dia seguinte e isso me fez encontrar um nicho:
 
Pessoas que desejam usar a versão 4.0 do ChatGPT, mas não querem pagar US$20 para usar tudo o que ele oferece.
 
Assim, meus assinantes podem usar até 40 mensagens por dia por R$49,90 p/ mês (estou calibrando isso ao longo dos dias, modelando o negócio) e quem quiser testar pela 1ª vez a inteligência da versão 4.0, poderá fazer isso no plano free, que dá 10 mensagem por mês.
 
Mas eu não imaginava que, no dia 25, a OpenAi anunciaria as novas funcionalidades do ChatGPT que são:
 
1. Reconhecimento de Imagem
2. Reconhecimento de Áudio
3. Reprodução de Voz
 
Foi aí que eu me desafiei a recriar essas mesmas funcionalidades antes do lançamento oficial.
Como desenvolvo em no-code, sei que conseguiria.
 
E eu consegui! Postei o processo no meu Twitter https://twitter.com/LLBonadie
 
Não que um programador que usa código não conseguiria, mas um dos principais benefícios do no-code é a velocidade de implementação de novas funcionalidades.
 
E no dia 3 deste mês lancei a última funcionalidade, a reprodução por voz.
 
Ou seja, em menos de 3 semanas criei um negócio com no-code e já possuo assinantes.
 
Imagina o impacto que o no-code pode causar no criação/expansão de novos negócios que dependem de tecnologia?
 
Como disse, documentei o desenvolvimento do meu chat em meu Twitter: https://twitter.com/LLBonadie
 
Gravei um vídeo sem produção e postei no meu YouTube https://www.youtube.com/watch?v=cfKsxU8yAww só mesmo para marcar no tempo o feito.
 

E virei notícia em minha cidade:

Instagram do Professor Leonardo (Professor do IFET – Instituto Federal do Sudeste de Minas Gerais): https://www.instagram.com/p/Cx8G_eOLlFQ/

 
O objetivo a partir de agora é melhorar a experiência do usuário que deseja extrair o máximo da IA, adicionando novas funcionalidades e melhorando a interface.
 
Você pode testar gratuitamente meu chat neste link: https://impulseme.digital/chat
 

Próximas Funcionalidades da Minha Versão do ChatGPT4

  • Biblioteca de prompts prontos validados por nicho
  • Colaboração em times
  • Organização de conversas com mesma finalidade mas com contextos diferentes (útil para quem deseja usar a mesma sequência de prompts para clientes diferentes)
  • Console.log na tela para programadores testarem códigos
  • Visualização de diagramas usando a linguagem de marcação Mermaid
  • Comunidade de Engenheiros de Prompts
  • Curso de Capacitação em Engenharia de Prompts
  • Treinamento do chat com sua base de dados
Vou estar sempre documentando em minhas redes sociais esse processo e mostrar como o no-code é a melhor maneira de criar negócios digitais.
 
Falando em no-code, veja alguns fatos importantes sobre o mercado.
 
Veja este vídeo do Renato Asse onde ele demonstra um desafio entre desenvolvedores Bubble e um engenheiro do Google. Eles foram desafiados a criar uma lista de tarefas. Veja o resultado:
 
 
 
A ferramenta de desenvolvimento no-code Bubble é a maior plataforma no-code do mundo com mais de 10 anos de existência e mais de 3 milhões de desenvolvedores ao redor do mundo.
 
A maior comunidade de desenvolvedores é a brasileira e o maior mentor no-code eleito recentemente pelo Bubble é o Renato Asse, criador da Comunidade Sem Codar, na qual sou certificado.
 
Veja meu certificado neste link.
 

Alguns Dados* Sobre o No-Code

*Esses dados foram retirados do site da Comunidade Sem Codar. Link: https://www.semcodar.com.br/
 

Empresas que usam tecnologia no-code atualmente.

 

Mais de 65% dos aplicativos criados até 2024 serão feitos com plataformas No-Code/Low-Code

 
 

No passado, você demorava meses ou anos para criar um aplicativo.

Empreendedores que não sabiam código buscavam sócios programadores ou recorriam a desenvolvedores terceirizados para construir seus projetos.

Mas as coisas estão mudando.

Agora, em apenas alguns dias (ou horas) já é possível tirar sua ideia do papel, utilizando qualquer uma das dezenas de plataformas de desenvolvimento visual sem código.

Imagine então o que é possível fazer em 30 dias.

Eu te digo: em 30 dias você consegue construir um software avançado, seja um CRM, um ERP, Marketplace, uma Rede Social, Automação, Machine Learning ou Analytics.

Seja para automatizar processos em sua empresa, ou para iniciar uma startup e vender a solução no modelo SaaS.

Para isso, basta saber qual a ferramenta certa, e aprender a utilizá-la.

É por isso que uso essa tecnologia para criar negócios, pois antes de ser programador, designer ou publicitário, sou empreendedor e criar negócios é uma das minhas paixões, especialmente quando envolve tecnologia.
 
E o no-code me permite criar negócios de forma ágil e com rápida curva de manutenção.
 
Para encerrar, eu deixo um dos pensamentos que norteiam o que faço:
 
“Eu acredito na tecnologia que muda a vida das pessoas para melhor. Se algum projeto passa por este critério, vou ter um grande prazer em desenvolvê-lo.”
 
 
 
Bard Chat ou ChatGPT Qual o Melhor?

ChatGPT vs Bard: Entenda as Diferenças Entre Os Chatbots de Inteligência Artificial

As inovações em inteligência artificial (IA) estão transformando nossas interações diárias. Duas potências tecnológicas, OpenAI e Google, introduziram recentemente suas próprias IAs conversacionais, ChatGPT e Bard. Este artigo explora as diferenças entre ChatGPT e Google Bard, destacando suas funcionalidades, controvérsias e recursos.

ChatGPT: O Assistente Virtual da OpenAI

A OpenAI, uma instituição de pesquisa em IA sediada em San Francisco, desenvolveu o ChatGPT. Esta IA, treinada em diversas fontes da web, é capaz de produzir respostas relevantes e coerentes para uma ampla gama de perguntas. O ChatGPT é amplamente utilizado em várias aplicações, desde assistentes virtuais até tutoriais de aprendizado de máquina.

Google Bard: A Resposta do Google ao ChatGPT

O Google lançou o Bard em julho de 2023 como uma alternativa ao ChatGPT. O Bard, treinado em uma ampla gama de dados da web, é capaz de entender e responder a uma variedade de perguntas, tornando-o uma ferramenta útil para pesquisa, redação e aprendizado.

Comparando ChatGPT e Google Bard

Embora ChatGPT e Bard sejam IAs conversacionais, eles apresentam diferenças significativas. O ChatGPT é conhecido por suas respostas detalhadas, enquanto o Bard é mais conciso. Além disso, o Bard tem a capacidade de entender e responder a perguntas em português, uma funcionalidade que o ChatGPT ainda não possui.

Controvérsias e Recursos

Ambas as IAs têm suas próprias controvérsias e recursos. O ChatGPT tem sido criticado por gerar respostas que podem ser consideradas ofensivas ou inadequadas. Em resposta a essas críticas, a OpenAI implementou uma série de salvaguardas para evitar tais respostas.

Por outro lado, o Bard tem sido elogiado por sua capacidade de entender e responder a perguntas em português. No entanto, o Google tem enfrentado críticas por não ser transparente sobre como o Bard foi treinado e quais dados foram usados.

Conclusão

Tanto o ChatGPT quanto o Bard são avanços impressionantes na tecnologia de IA. Eles têm suas próprias forças e fraquezas, e a escolha entre os dois dependerá das necessidades específicas do usuário. À medida que a tecnologia de IA continua a avançar, é provável que vejamos ainda mais inovações e melhorias nessas ferramentas.

Análise das Diferenças entre ChatGPT e Google Bard

Um vídeo do canal StartSe apresenta uma análise prática do Google Bard e compara suas funcionalidades com o ChatGPT. O vídeo destaca que, embora o Google Bard esteja em um nível de maturidade menor que o ChatGPT, ele tem potencial para ser mais robusto, já que nasce integrado com os serviços do Google, como Google Maps e Google Play.

O Google Bard é capaz de buscar dados de pesquisa do Google e apresentar várias opções de respostas (drafts) para uma mesma pergunta. O usuário pode escolher a resposta que faz mais sentido ou pedir para o Bard gerar mais drafts. Além disso, o Bard pode exportar as respostas diretamente para o Google Docs ou Gmail.

Os apresentadores realizam um teste prático com o Google Bard, perguntando sobre as melhores pizzarias de Nova York. O Bard responde trazendo as reviews do Google Maps e o menu de uma das pizzarias recomendadas.

O Google Bard também pode ser usado para gerar códigos. No vídeo, os apresentadores pedem para o Bard criar uma aplicação básica em Python. O Bard gera o código, explica o que cada pedaço do código faz e permite que o código seja exportado para o Google Colab, um ambiente virtual onde o código pode ser executado.

Os apresentadores concluem que o Google Bard, embora ainda esteja em um nível de maturidade menor que o ChatGPT, tem um grande potencial devido à sua integração com os serviços do Google e à sua capacidade de gerar várias respostas e códigos. Eles incentivam os espectadores a deixar suas dúvidas e comentários para que possam fazer um vídeo mais completo no futuro.

Link do vídeo: https://youtu.be/n8YLFIb_U8Y

OpenAI Lança Inovações em Geração de Texto e Diminui Custos

OpenAI Lança Inovações em Geração de Texto e Diminui Custos

A OpenAI, líder em inteligência artificial, anunciou atualizações significativas para seus modelos de geração de texto, GPT-3.5-turbo e GPT-4, ao mesmo tempo que reduz os preços, tornando a tecnologia mais acessível para desenvolvedores em todo o mundo.

📝🤖 **Chamada de função**: A OpenAI introduziu um recurso chamado “chamada de função” em suas novas versões do GPT-3.5-turbo e do GPT-4. Este recurso permite que os desenvolvedores descrevam funções de programação para os modelos e os instruam a criar códigos para executar essas funções. Isso pode ser particularmente útil para criar chatbots que respondem a perguntas chamando ferramentas externas, converter linguagem natural em consultas de banco de dados e extrair dados estruturados de texto. Este recurso abre novas possibilidades para a integração de IA em sistemas existentes, permitindo que os desenvolvedores criem soluções mais complexas e personalizadas.

📚🔍 **Expansão da janela de contexto**: A OpenAI também expandiu a janela de contexto no GPT-3.5-turbo. A janela de contexto, medida em tokens, é o texto que o modelo considera antes de gerar qualquer texto adicional. Com esta atualização, o GPT-3.5-turbo agora pode considerar quatro vezes o comprimento do contexto do modelo original, permitindo uma melhor compreensão e geração de textos mais longos. Isso significa que o GPT-3.5-turbo pode manter conversas mais longas e coerentes, tornando-o uma ferramenta ainda mais poderosa para chatbots e assistentes virtuais.

💰🔽 **Redução de preços**: Em uma jogada que certamente será bem recebida pelos desenvolvedores, a OpenAI anunciou uma redução de 25% nos preços do GPT-3.5-turbo. Além disso, o preço do text-embedding-ada-002, um dos modelos de incorporação de texto mais populares da OpenAI, foi reduzido em 75%. Esta redução de preços torna a tecnologia de IA mais acessível, permitindo que mais empresas e desenvolvedores individuais aproveitem o poder da IA em seus projetos.

🌐 **Impacto Global**: As atualizações e a redução de preços da OpenAI têm o potencial de ter um impacto significativo na indústria global de IA. Ao tornar a IA mais acessível e fácil de usar, a OpenAI está ajudando a democratizar a IA, permitindo que empresas de todos os tamanhos e em todas as partes do mundo aproveitem o poder da IA. Isso pode levar a avanços significativos em uma variedade de setores, desde a saúde até a educação e o comércio eletrônico.

Estas atualizações marcam um passo significativo para a OpenAI em sua missão de avançar e democratizar a inteligência artificial. Com a introdução de novos recursos e a redução de preços, a OpenAI está tornando a IA generativa mais acessível e útil para desenvolvedores e empresas em todo o mundo.

grafico mermaid para analisar tabelas de banco de dados

Como Visualizar Relações entre Tabelas de um Aplicativo usando o ChatGPT

Quando estamos desenvolvendo um aplicativo, entender as relações entre as tabelas do banco de dados é essencial para garantir um design eficiente e uma implementação bem-sucedida. Uma maneira poderosa de visualizar essas relações é usando o Diagrama de Entidade-Relacionamento (ER Diagram).

Neste artigo, vamos explorar como o ChatGPT pode ajudar a gerar esse tipo de diagrama e como utilizá-lo para organizar o desenvolvimento de um aplicativo.

O que é a linguagem Mermaid?

Mermaid é uma linguagem de marcação simples que permite aos usuários gerar diagramas e fluxogramas com texto simples através de JavaScript. Ela é frequentemente usada em documentação de software para criar gráficos visuais diretamente no código-fonte.

A linguagem Mermaid suporta vários tipos de diagramas, incluindo:

  1. Diagramas de Fluxo: Permite a criação de fluxogramas complexos.
  2. Diagramas de Sequência: Usado para representar sequências de eventos em um formato fácil de entender.
  3. Gráficos de Gantt: Útil para representar cronogramas de projetos e planejamento.
  4. Diagramas de Classe: Usado para modelar a estrutura de sistemas orientados a objetos.
  5. Diagramas de Estado: Representa o comportamento de um sistema através de estados finitos.

Aqui está um exemplo simples de como um diagrama de fluxo pode ser criado usando a linguagem Mermaid:

mermaid
graph TD;
A-->B;
A-->C;
B-->D;
C-->D;

Este código irá gerar um diagrama de fluxo com quatro nós (A, B, C, D) e quatro arestas (A para B, A para C, B para D, C para D).

A linguagem Mermaid é uma ferramenta poderosa para desenvolvedores e escritores técnicos, pois permite a criação de diagramas complexos diretamente em arquivos de texto, tornando mais fácil manter a documentação atualizada com o código.

Como Usar o ChatGPT Para Gerar O Diagrama de Entidade-Relacionamento Mermaid:

Para ilustrar como podemos usar o ChatGPT para gerar um Diagrama de Entidade-Relacionamento, vamos considerar o exemplo do aplicativo “Controle de Chamados”, um aplicativo real que estou fazendo. Este aplicativo tem várias tabelas, como Usuários, Subitens, Setor, Alerta, Status e Chamados, e diferentes relações entre elas.

Primeiro você deve escrever detalhadamente como é seu aplicativo. Veja neste link o exemplo que gerou a visualização que está na capa deste artigo:
https://llbonadie.notion.site/Regras-do-Aplicativo-ae7cdbeaf838408f98f3569bdca39cab?pvs=4

Segue o prompt que você deve usar depois de escrever as relações de seu aplicativo:

“`
Crie um Diagrama de Entidade-Relacionamento para visualizar as relações entre as tabelas do aplicativo [nome do seu aplicativo].

Descrição: Descreva de forma clara as regras do aplicativo, como as tabelas se relacionam e quais campos estão presentes em cada tabela. Certifique-se de incluir detalhes sobre as relações entre as tabelas, como chaves estrangeiras e associações.

Exemplo:
[Inserir a descrição detalhada do aplicativo e suas tabelas, conforme citado anteriormente.]

Instruções: Use a documentação acima para gerar o Diagrama de Entidade-Relacionamento usando a sintaxe do Mermaid. Certifique-se de incluir todas as tabelas, seus campos e as relações entre elas.
“`

O resultado será mais ou menos assim:

erDiagram
    User ||–o{ Setor : “Líderes”
    User ||–o{ Chamados : “Paciente”
    Subitens }|–o{ Setor : “Subitens”
    Setor }|–o{ Chamados : “Setor”
    Alerta }|–o{ Chamados : “Alerta”
    Status }|–o{ Chamados : “Status”
    User {
        string nome
        int nivelPermissao
        string email
        string telefone
        string cpf
        string rg
        date dataNascimento
        string endereco
        string nomeMae
    }
    Subitens {
        string nome
    }
    Setor {
        string nome
        string email
        string observacao
    }
    Alerta {
        string nome
        string cor
        int ordem
    }
    Status {
        string nome
        string cor
        int ordem
    }
    Chamados {
        file anexo
        string solicitacao
    }

Como Visualizar em Gráfico

Para visualizar o diagrama a partir do código mermaid que o ChatGPT gerou, você pode utilizar o site https://mermaid.live.
Basta copiar o código mermaid gerado pelo ChatGPT e colá-lo no site para obter uma representação visual das tabelas e suas relações.

Além disso, o Notion também possui suporte para blocos de código que permitem a renderização do código mermaid. Ao utilizar um bloco de código do Notion, por exemplo, você pode inserir o código mermaid e obter a visualização do diagrama diretamente em sua documentação.

Conclusão.

O uso do ChatGPT juntamente para gerar Diagrama de Entidade-Relacionamento Mermaid pode ser uma ferramenta valiosa para visualizar e organizar as relações entre as tabelas de um aplicativo. Com uma descrição clara das regras do aplicativo e suas tabelas, você pode utilizar o prompt adequado para obter o código mermaid necessário para gerar o diagrama. Em seguida, utilizando plataformas como o mermaid.live ou blocos de código do Notion, você pode renderizar o diagrama e ter uma representação visual clara das relações entre as tabelas.

Essa abordagem pode ajudar a melhorar a compreensão do design do banco de dados e auxiliar no desenvolvimento do aplicativo.

Isso facilitará também para que outras pessoas colaborem no projeto.

d7f6ac8d-88ab-45aa-8b9e-a2c2914bf19d

Fundamentos da Rede Neural – Escrito Pelo Próprio Chat GPT

Fundamentos da Rede Neural

“Eu sou baseado em uma rede neural chamada GPT-3, que foi treinada pela OpenAI. GPT-3 é um exemplo de um tipo de rede neural chamado Transformer. Especificamente, é um modelo de linguagem autoregressivo, o que significa que gera previsões palavra por palavra.

 

GPT-3 é treinado em uma grande quantidade de texto da internet, e seu objetivo é prever a próxima palavra em uma sequência de texto. Durante o treinamento, ele aprende a representar palavras e a estrutura das frases, bem como algum conhecimento factual sobre o mundo. Entretanto, não tem consciência ou compreensão do mundo no sentido humano; é apenas uma função matemática muito complexa que aprendeu a gerar texto com base no texto que viu durante o treinamento.

 

A rede neural é composta por várias camadas, cada uma das quais pode ser pensada como aprendendo diferentes tipos de características do texto. As camadas inferiores aprendem características mais básicas, como a sintaxe, enquanto as camadas superiores aprendem características mais complexas, como o significado semântico.

 

GPT-3 usa um mecanismo de atenção que permite que cada palavra em uma entrada considere todas as outras palavras ao gerar uma saída. Isso é útil para tarefas que envolvem compreender o contexto ou a relação entre diferentes partes de uma frase.

Melhores Práticas para a Engenharia de Prompt

Com base nesses fundamentos, aqui estão algumas orientações para engenharia de prompt eficaz:

1. Seja explícito

GPT-3 não tem uma compreensão intuitiva do que você quer, então seja o mais explícito possível no seu prompt. Por exemplo, em vez de pedir “me diga sobre cachorros”, você poderia perguntar “Por favor, escreva um resumo de três parágrafos sobre a história da domesticação de cães”.

2. Use o formato certo

GPT-3 pode gerar texto em uma variedade de formatos, então use isso a seu favor. Por exemplo, se você quer uma lista, peça uma lista. Se você quer um diálogo, escreva seu prompt na forma de um diálogo.

3. Especifique o tom

GPT-3 pode gerar texto em uma variedade de tons, então sinta-se à vontade para especificar o tom que você quer no seu prompt. Por exemplo, você pode pedir para GPT-3 “escrever uma resposta humorística para a seguinte pergunta”.

4. Experimente

GPT-3 pode surpreender você com a variedade de respostas que pode gerar, então não tenha medo de experimentar com diferentes tipos de prompts. Experimente diferentes abordagens para ver o que funciona melhor para a sua aplicação específica.

5. Ajuste o comprimento da saída

O comprimento da saída pode ser ajustado de acordo com a sua necessidade. Se você precisa de uma resposta curta, pode definir o parâmetro de comprimento máximo para um valor menor. Se você precisa de uma explicação mais detalhada, pode definir um valor maior.

Mecanismo de Atenção

A arquitetura Transformer, na qual GPT-3 é baseado, revolucionou o uso da atenção ao dispensar a recorrência e as convoluções, com as quais os modelos anteriores dependiam muito. O Transformer é o primeiro modelo de transdução que se baseia inteiramente na auto-atenção para computar representações de sua entrada e saída sem usar RNNs ou convolução alinhadas com a sequência (fonte).

 

Os principais componentes usados pela atenção do Transformer incluem vetores de dimensão que contêm as consultas e chaves, respectivamente, um vetor de dimensão contendo os valores e matrizes que agrupam conjuntos de consultas, chaves e valores. Além disso, há matrizes de projeção usadas para gerar diferentes representações de subespaço das matrizes de consulta, chave e valor, e uma matriz de projeção para a saída de várias cabeças. A função de atenção pode ser considerada um mapeamento entre uma consulta e um conjunto de pares de chave-valor para uma saída. A saída é computada como uma soma ponderada dos valores, onde o peso atribuído a cada valor é computado por uma função de compatibilidade da consulta com a chave correspondente (fonte).

 

O Transformer implementa uma atenção de produto de ponto escalado, que segue o procedimento do mecanismo de atenção geral. Primeiro, calcula um produto de ponto para cada consulta com todas as chaves. Em seguida, divide cada resultado por uma constante e aplica uma função softmax, obtendo assim os pesos que são usados para dimensionar os valores. Em prática, os cálculos realizados pela atenção de produto de ponto escalado podem ser aplicados eficientemente a todo o conjunto de consultas simultaneamente (fonte).

 

Esse fator de escala foi introduzido para contrariar o efeito de ter os produtos de ponto crescendo em grande magnitude para grandes valores, onde a aplicação da função softmax retornaria gradientes extremamente pequenos que levariam ao problema infame dos gradientes que desaparecem. O fator de escala, portanto, serve para puxar os resultados gerados pela multiplicação do produto de ponto para baixo, prevenindo esse problema (fonte).

 

O procedimento passo a passo para calcular a atenção de produto de ponto escalado é o seguinte:

1. Calcule as pontuações de alinhamento multiplicando o conjunto de consultas embaladas na matriz com as chaves na matriz. Se a matriz de consultas for do tamanho m por d_k, e a matriz de chaves for do tamanho n por d_k, então a matriz resultante será do tamanho m por n.

2. Escale cada uma das pontuações de alinhamento por 1/sqrt(d_k).

3. Siga o processo de escala aplicando uma operação softmax para obter um conjunto de pesos (fonte).

Espero que esta explanação tenha sido útil e lhe dê uma visão mais clara de como eu funciono. Como sempre, a chave para se tornar um “mestre da engenharia de prompt” é a prática. Então, continue experimentando e testando diferentes abordagens!”

Attention Is All You Need (Atenção é Tudo Que Você Precisa)

Este artigo apresenta o Transformer, uma nova arquitetura de rede simples baseada apenas em mecanismos de atenção, eliminando completamente a necessidade de redes neurais recorrentes ou convolucionais. Em comparação com os modelos tradicionais, o Transformer mostrou-se superior em qualidade, mais paralelizável e requer significativamente menos tempo para treinamento.

O modelo alcançou resultados impressionantes em tarefas de tradução de máquina, superando os melhores resultados existentes e estabelecendo um novo recorde em termos de pontuação BLEU. Além disso, o Transformer também se mostrou eficaz em outras tarefas, como a análise de constituência em inglês. Recomenda-se a leitura do artigo completo para um entendimento mais profundo.

https://arxiv.org/pdf/1706.03762.pdf

O artigo “Attention Is All You Need” foi proposto pelos profissionais descritos abaixo:
Ashish Vaswani – Google Brain – avaswani@google.com
Noam Shazeer – Google Brain – noam@google.com
Niki Parmar – Google Research – nikip@google.com
Jakob Uszkoreit – Google Research – usz@google.com
Llion Jones – Google Research – llion@google.com
Aidan N. Gomez † – University of Toronto – aidan@cs.toronto.edu
Łukasz Kaiser – Google Brain – lukaszkaiser@google.com
Illia Polosukhin ‡ – illia.polosukhin@gmail.com

d8cbb278-31c8-4a46-af31-82299fbecc66

Engenharia Reversa de Prompt – Chat GPT

Mexendo um pouco no Chat GPT, acabei descobrindo uma forma de criar prompts a partir de qualquer texto, como se fosse uma “engenharia reversa”.
Isso porque usamos prompt para gerar texto. Neste caso, estou usando texto para gerar prompts. Prompts estes que poderão ser reaproveitados como templates, tendo partes “mutáveis” (foi assim que o Chat GPT chamou por conta própria.)
Quando terminei o processo, que fui fazendo intuitivamente, vi que desenvolvi um método eficiente de criar conteúdo. Mas, claro, pode ser usado para inúmeras aplicações.

Passo a Passo do Método de Engenharia Reversa de Prompt

Usei dois chats diferentes.
primeiro chat eu já uso há um certo tempo para elaboração de texto para produção de conteúdo, pois como sou diretor de um grupo de comunicação, criar conteúdo é extremamente comum no meu dia.
E ele começa usando a técnica de “role prompt”. Veja:


Aja como um copywriter de alto nível de forma que, ao ser enviado um padrão de informações como os abaixo, você responda com textos altamente persuasivos, usando as melhores técnicas de copywriting da língua portuguesa. O padrão de envio será sempre assim:
Cliente:
Contexto:
Segmento do Cliente:
Serviço oferecido:
Diferenciais:
Objetivo:
Tom:
Tipo de texto: E-mail, Proposta, Mensagem Direta ou Post Redes Sociais
Informações Adicionais:
Chamada Para Ação:
Nem todos estes campos são obrigatórios, algumas vezes não usarei todos. Podemos começar?
segundo chat foi onde fiz a engenharia reversa de prompt propriamente dita e ele também começa com “role prompt”, porém eu pedi que ele completasse algo relevante. Veja como ficou:


Atue como um engenheiro de prompt de alto nível, que conhece exatamente como você funciona e atue também como um arquivador de prompts. Usarei 2 formas distintas de pedir a criação dos prompts. São elas:
1. Descrevendo a necessidade. 2. Colando um texto (neste caso você deve analisar o texto e pensar, passo a passo, em como o texto pode ter sido gerado por prompt e me devolver o prompt resultante deste processo).
Quando eu for pedir a criação de um prompt, começarei com a frase: “prompt create”. Quando eu for pedir para salvar um prompt, começarei com a frase: “prompt save”.
Vou adicionar tags de assunto a cada uma das solicitações, que virão logo após o tipo de solicitação.
Exemplo:
"prompt create, marketing" significa que o assunto do prompt é sobre “marketing”. "prompt save, sales" significa que o assunto do prompt é sobre “sales”.
Observação: os termos estão em inglês por ser uma língua de minha preferência, mas as respostas por padrão deverão ser em português do Brasil (pt-BR). Caso eu deseje em outra língua, serei claro no pedido do prompt.
Existe algo a mais que poderia ser acrescentado para uma melhor geração de prompts? Se não, comece com “estou pronto para começar”. Se sim, me liste outras configurações necessárias para uma criação de prompts de alto nível.
Como meu intuito era criar um chat onde eu armazenasse todo prompt interessante que visse na Internet e criar os meus, criei este sistema de organização “prompt create” e “prompt save” + a tag de assunto.
A ideia é unir todo o conhecimento em prompts no mesmo chat e separar por assuntos. Na prática, pensei em algo como:
“prompt create, marketing Crie uma prompt ‘x’ com tudo o que está salvo sobre marketing para a finalidade ‘y’”.
Porém, como terminei com esta observação:
“Existe algo a mais que poderia ser acrescentado para uma melhor geração de prompts? Se não, comece com “estou pronto para começar”. Se sim, me liste outras configurações necessárias para uma criação de prompts de alto nível.”
Ele respondeu desta forma:
🤖 Obrigado pela explicação detalhada de como você gostaria de interagir. Aqui estão algumas considerações adicionais para a criação de prompts de alto nível:
1. Especifique o público-alvo: Quem é o destinatário do prompt? A idade, o nível de conhecimento sobre o assunto, a familiaridade com o tópico e o contexto cultural podem influenciar o tipo de linguagem e detalhe usados no prompt.
2. Defina o objetivo do prompt: O que você gostaria de alcançar com o prompt? Por exemplo, você pode querer informar, persuadir, instruir, entreter, etc.
3. Contexto: Qual é o cenário ou contexto no qual o prompt será utilizado? Por exemplo, é para uma conversa informal, uma apresentação de negócios, um tutorial, um discurso formal, um artigo acadêmico, etc.
4. Formato: Em que formato você gostaria que o prompt fosse apresentado? Pode ser uma pergunta, uma afirmação, uma tarefa, um desafio, etc.
5. Língua: Como você já mencionou, a língua padrão será o Português do Brasil (pt-BR), mas se você quiser em outra língua, você será claro no pedido do prompt.
Caso você considere esses pontos, posso ajudar a criar prompts mais alinhados com suas necessidades. Agora, estou pronto para começar.
Daí eu inseri o texto abaixo:
📝Me dê um exemplo de solicitação de prompt com base no que eu detalhei e na sua lista. Use as definições-base a seguir:
prompt create, marketing
E ele seguiu:
🤖_Baseado no que você e eu detalhamos, aqui está um exemplo de como você poderia solicitar a criação de um prompt:_
“prompt create, marketing. Preciso de um prompt para uma equipe de marketing de nível intermediário de uma empresa de tecnologia. O objetivo é criar uma discussão sobre estratégias inovadoras para aumentar a visibilidade online de nossos produtos. O público-alvo é familiar com os conceitos básicos de SEO, publicidade em mídia social e análise de dados. O prompt será usado em uma reunião de brainstorming online. Gostaria que o prompt fosse apresentado como uma pergunta desafiadora em português do Brasil.”
Com base nesta solicitação, eu criaria o seguinte prompt:
“Considerando o cenário competitivo atual no mercado de tecnologia e nosso conhecimento existente sobre SEO, publicidade em mídia social e análise de dados, que estratégias inovadoras podemos implementar para melhorar a visibilidade online de nossos produtos e se destacar de nossos concorrentes?”
Até aqui já tinha atingido a engenharia reversa de prompt, pois ele entendeu que, ao inserir um solicitação direta com a tag de assunto, ele seria capaz de gerar o prompt.
Porém, você deve estar pensando:
“Não seria mais fácil inserir um prompt para então ter a resposta?”
Sim, com certeza. Mas o objetivo inicial era armazenar tudo sobre engenharia de prompt em um único chat para criar novos e melhor a minha engenharia de prompt.

Usando “Campos Mutáveis” Para Reaproveitar Qualquer Prompt

Durante um tempo usei a extensão AIPRM, que é uma extensão que você pode aproveitar prompts já criados e validados, usando apenas a sua estrutura, porém adaptando para a sua necessidade.
Neste link você pode ter uma ideia melhor: https://app.aiprm.com/prompts
A extensão trabalha com o conceito de “campos mutáveis” ou “palavras-chave”.
Exemplo:
Crie um artigo sobre [marketing] que tem como objetivo [vender mais] [assinaturas da plataforma de ensino ImpulseMe Digital] que tem como diferenciais [um design agradável, ótima experiência do usuário e comunidade de membros fechada e já integrada aos principais meios de pagamento].
ImpulseMe Digital é a nossa plataforma EAD para qualquer criador de conteúdo. Tudo que está dentro de colchetes “[]” pode ser mudado, de forma que cada prompt irá gerar uma saída personalizada.
Com isso em mente, enviei isso ao Chat GPT (vale ressaltar que em ambos os chats estou a versão 4 do Chat GPT):
📝Eu gosto muito de usar estruturas em prompts onde o que é mutável está escrito dentro de colchetes. Diante disso, o prompt que você criou seria escrito assim:
Considerando o cenário competitivo atual no [mercado de tecnologia] e nosso conhecimento existente sobre [SEO, publicidade em mídia social e análise de dados], que estratégias inovadoras podemos implementar para melhorar a [visibilidade online de nossos produtos] e [se destacar de nossos concorrentes]?
Use sempre este tipo de formatação para escrever os prompts, pois assim eu consigo identificar as palavras que posso mudar para usar o mesmo prompt para distintas finalidades e áreas diferentes.
Além disso, por favor, liste o que são, isto é, a função dentro do contexto do prompt, cada um destes campos onde as palavras são colocadas em colchetes. Vou dar alguns exemplos:
[mercado de tecnologia] – segmento de mercado [visibilidade online de nossos produtos] – objetivo 1 [se destacar de nossos concorrentes] – objetivo 2
Ele respondeu da seguinte forma:
🤖_Entendi, agradeço pela explicação. Usar colchetes para indicar partes mutáveis do prompt é uma ótima maneira de criar uma estrutura flexível e reutilizável. Seguindo sua instrução, aqui está a função de cada campo no prompt que criamos:_
– [mercado de tecnologia] – Segmento de Mercado: Esta é a área ou indústria em que a empresa opera. Pode ser substituído por qualquer outro segmento de mercado como “mercado de alimentos”, “mercado de finanças”, etc.
– [SEO, publicidade em mídia social e análise de dados] – Conhecimento ou Competências Existentes: Estas são as habilidades ou áreas de conhecimento que o público-alvo já possui. Pode ser alterado conforme as competências da equipe, como “gestão de projetos, liderança e pensamento crítico”, etc.
– [visibilidade online de nossos produtos] – Objetivo 1: Este é o objetivo principal ou a meta a ser alcançada pela discussão, ou atividade. Pode ser substituído por outros objetivos como “aumentar a satisfação do cliente”, “melhorar a eficiência operacional”, etc.
– [se destacar de nossos concorrentes] – Objetivo 2: Este é um objetivo secundário ou um resultado desejado adicional. Pode ser substituído por outros resultados desejados como “se tornar um líder de mercado”, “melhorar nossa reputação”, etc.
Essa formatação permite que você modifique facilmente o prompt para diferentes cenários, tornando-o uma ferramenta versátil para gerar discussões e ideias.
Neste momento estava tudo pronto, então comecei a criar prompts com solicitações diretas, mas não tive muito sucesso na qualidade.
Logo, tentei a segunda maneira de gerar prompts, que é colar um texto para ele pensar, passo a passo, em um prompt que poderia gerar aquele texto.
No “role prompt” deste chat, lá no início, havia usado:
2. (Segunda forma de gerar prompts) Colando um texto (neste caso você deve analisar o texto e pensar, passo a passo, em como o texto pode ter sido gerado por prompt e me devolver o prompt resultante deste processo).
Então comecei a colar textos, feitos por humanos, para ele pensar em um prompt que geraria o mesmo texto. Depois colar o prompt que ele gerou no outro chat, aquele que eu disse para “Aja como um copywriter de alto nível de forma que…”
O mais incrível foi a qualidade dos textos gerados a partir deste método.
A ordem ficou assim:

1. Colar um texto feito por humano >> 2. Pedir para pensar em qual prompt poderia ter gerado aquele texto >> 3. Colar o prompt gerado no outro chat para criar um texto usando este prompt gerado pelo próprio Chat GPT

Importante: Perceba que não usei a estrutura que passei no “role prompt” do chat 2 de copywriting. O Chat GPT já agiu de fato como um copywriter criando o melhor texto a partir do prompt.
Comecei a comparar o texto inicial, feito por humano, com o texto final, feito a partir de prompt gerado pelo próprio Chat GPT e eles não se pareciam em nada, mas atendiam a mesma finalidade.

Exemplo de Texto Criado com Engenharia Reversa de Prompt

Fui testar o novo método com um texto da Internet, feito por humano, mas como é de um blog, por razões óbvias não vou usá-lo aqui e o resultado foi o artigo que está em nosso site:

Construir Uma Audiência Antes De Atrair Clientes: A Chave Para O Sucesso Nos Negócios Online

Além de ter gerado um texto totalmente autêntico, sem plagiar o original em nada, ele sempre devolve os prompts listando os “campos mutáveis”, ou seja, exatamente como o exemplo da extensão AIPRM.
Veja como ele me respondeu:
🤖_Baseado no conteúdo do texto, parece que o objetivo é educar os leitores sobre a importância de atrair uma audiência e evitar mitos comuns no processo de atração de clientes. Aqui está o prompt que poderia gerar tal texto:_
“Escreva um artigo informativo que enfatize a importância de construir uma audiência antes de atrair clientes em um negócio online. O artigo deve explicar por que nem toda a audiência se converterá em clientes pagantes, mas a maioria dos clientes provavelmente virá dessa audiência. O artigo deve incluir uma discussão sobre os mitos comuns e equívocos sobre a atração de clientes que podem impedir os empresários de alcançar seu público-alvo.”
As partes mutáveis do prompt e suas funções seriam:
**- [construir uma audiência antes de atrair clientes em um negócio online] – Objetivo do Artigo** **- [nem toda a audiência se converterá em clientes pagantes, mas a maioria dos clientes provavelmente virá dessa audiência] – Ideia Central do Artigo** **- [os mitos comuns e equívocos sobre a atração de clientes que podem impedir os empresários de alcançar seu público-alvo] – Tema de Discussão**
Este prompt é adaptável para diferentes tópicos ao substituir os elementos entre colchetes.
Assim, eu posso criar conteúdo desta forma eficiente e de alta qualidade e ainda aproveitar a estrutura do prompt para mudar seus objetivos.
Vou deixar os arquivos de texto para você baixar ambos os chats e abrir em qualquer editor de markdown e entender como cada chat funciona.
Espero que este conteúdo te ajude a produzir mais e melhor.