Nesse artigo você encontra as respostas para as dúvidas mais frequentes sobre a funcionalidade "Comportamento do bot", que também pode ser chamada de "prompt", e deve ser configurada ao criar a personalidade de um chatbot no Toolzz AI.
Existe um tamanho máximo recomentado para o prompt?
Sim. A OpenAI tem um limite de tokens para cada requisição, que inclui tanto o prompt enviado quanto a resposta gerada. A relação entre o token e o tamanho do prompt refere-se principalmente à quantidade de tokens (unidades de texto, que podem ser palavras ou números) que podem ser processados em uma única solicitação.
Esse limite depende do modelo que está sendo usado. Por exemplo, o GPT-3.5 tem um limite de até 8 mil tokens, já modelos do GPT-4 podem chegar a ter um limite de 128 mil tokens. Isso significa que o tamanho do prompt que você pode enviar deve estar dentro desse limite, considerando também o espaço necessário para a resposta que você espera receber. Não é recomendado usar mais de 30% de token no modelo do prompt.
Um prompt muito grande acaba elevando o custo dentro da OpenAI, já que este custo é precificado por token. Além disso, se o prompt for muito grande, a IA demora um pouco mais para processar e responder o usuário.
Como melhorar o desempenho da IA do bot?
Você pode alterar o prompt quantas vezes quiser para fazer testes e, assim, tornar o comportamento do bot mais refinado e assertivo de acordo com o objetivo do seu negócio.
Como combinar o uso de comportamento do bot e o dataset para melhorar a IA do bot?
Quanto mais detalhado for seu prompt melhor ficará a busca da AI, mas como já falamos, um prompt muito grande pode não ser a melhor escolha. O cenário ideal é usar o prompt para colocar as informações mais importantes, o mínimo que a IA precisa saber, depois criar pastas com o detalhamento das informações no dataset e colocar no prompt onde a AI deve buscar essas informações mais complexas.
Por exemplo, você vai criar pastas de assuntos específicos no dataset e no prompt colocará os parâmetros da pesquisa que a IA deve seguir: "Ao ser perguntada sobre certificados procure informações na pasta "certificados" no dataset."
Como direcionar as respostas da IA de acordo com o usuário?
É possível configurar seu prompt para criar condições específicas de acordo com cada usuário, que vai determinar o tipo de informação que ele continuará recebendo na conversa.
Exemplo: "Se o usuário te perguntar sobre pós-graduação, pergunte ele já tem uma graduação, se a resposta for "sim", responda com nossa lista de cursos de pós-graduação, se a resposta for "não" responda que ele precisa, primeiro, ter uma graduação concluída e envie nossa lista de cursos de graduação."
Posso dar o comando para a IA buscar informações em mais de uma pasta no dataset?
Primeiro ela passa por tudo que está escrito dentro do prompt e depois ela procura as informações nas pastas do dataset indicadas pelo prompt. Não é recomendado criar o comando para ela buscar informações em mais de uma pasta do datasset. Se os dois assuntos estiverem em um mesmo arquivo, ela vai conseguir pegar as informações neste texto. Se ela tiver que buscar em locais diferentes a reposta não será precisa, pois ela pode conseguir acertar apenas uma parte, retirada do primeiro local de pesquisa que ela fez.
Qual o modelo de prompt mais usado dentro do chatbot do Toolzz AI?
Modelo FAC, usado para tirar dúvidas do usuário, é o mais usado atualmente. A IA busca dentro de uma base de dados repostas para perguntas frequentes.