Hyuka

Teste nossa Inteligência Artificial Hyuka.

Uma inteligência artificial (IA) do tipo GPT (Generative Pre-trained Transformer) é um modelo de linguagem que utiliza técnicas de aprendizado de máquina para gerar texto automaticamente. Esses modelos são treinados em grandes conjuntos de dados textuais e são capazes de entender e produzir texto em linguagem natural de maneira impressionante.

O funcionamento de uma IA do tipo GPT é baseado em uma arquitetura neural chamada Transformer, que é altamente eficaz para lidar com tarefas de processamento de linguagem natural. O GPT processa sequências de texto e gera previsões sobre as próximas palavras ou frases com base no contexto fornecido.

No seu website, uma IA do tipo GPT pode ser usada para várias finalidades, como responder a perguntas, gerar conteúdo automaticamente, criar diálogos simulados e muito mais. Ela oferece uma maneira poderosa de interagir com os usuários e fornecer respostas inteligentes e relevantes em tempo real.

Aqui você pode conversar com o David, um modelo treinado por nossa equipe. Trata-se de um experimento o David não sabe nada sobre nossa empresa, produtos ou serviços, mas já da para ter uma ideia de como ele pode evoluir.

Detalhes acadêmicos do curso de Inteligência Artificial da ETX

Módulo 1 (Para inciantes em IA) 3 horário .
Requisitos para ser aluno: Já ter iniciado em programação (Python, Go).
No curso será utilizado Linux (não se preocupe, temos uma capitulo dedicado ao uso do Linux e de nuvem, tudo na prática). Gammers que querem diminuir a vida nos jogos e levar a vida a sério iniciando em uma carreira na computação são bem vindos.

Capitulo 1 (3 horas)
1- Máquinas virtuais, Docker, Chroot, Wsl;
3- Linux, Principais Distribuições, Preparando o ambiente Linux para receber um “Backend” e “API” de uma Inteligência artificial;
3- Aceleradores de processamento, diferenças, qual usar, quando usar e como;
4- Amazon, Digital Ocean (máquinas virtuais na nuvem).

Capitulo 2 (3 horas)
5- Frameworks Opensource de IA
6- Fine tuning do ambiente Linux;
7- Conhecendo os principais Backends opensource
8- Instalação de Backends e API;
9- Benchmark de modelos;
10- Principais serviços na nuvem de Cloud para IA.

Capitulo 4 (horas)
11- Principais repositórios de modelos prontos;
12- Entendo como um modelo é treinado;
13- Principais formatos de arquivos;
14- Principais linguagens de programação utilizadas no mundo das IA;
15- Instalando uma IA no seu terminal Linux e sua utilidade no dia a dia;
16- Como integrar uma IA com sua aplicação;
17- ChatBot no Telegram e WhatsApp (Utilizando o Serviço WebChat).

Melhorando a conversa com as GPTs

1. Parâmetros de Geração de Texto:

  • temperature: Ajuste para 0.2-0.3. Valores mais baixos fazem com que a IA gere respostas mais focadas e previsíveis, reduzindo a chance de invenções.
  • top_k: Defina como 10-20 para limitar o número de opções consideradas para cada palavra, mantendo as respostas mais relevantes.
  • top_p: Ajuste para 0.7-0.8. Isso ajuda a manter a qualidade das respostas, limitando a diversidade a uma gama de opções mais relevante.
  • presence_penalty e frequency_penalty: Mantenha ambos em 1.0 para desencorajar repetições e garantir respostas mais variadas e relevantes.

2. Controle de Contexto e Repetição:

  • repeat_last_n: Ajuste para 20-30 para evitar repetições excessivas enquanto mantém a coerência no diálogo.
  • repeat_penalty: Mantenha em 1.0 para desencorajar a repetição de frases e tópicos já abordados.

3. Mirostat e TFS:

  • mirostat: Use valor 1 para controle adaptativo de temperatura que ajusta dinamicamente a criatividade da resposta.
  • mirostat_tau e mirostat_eta: Configure em torno de 0.8 e 0.6 para ajustar a agressividade e a fluidez na modulação da temperatura.
  • tfs_z: Defina como 0.5 para controle adicional sobre a diversidade nas respostas.

4. Resposta a Perguntas Fora da Base de Conhecimento:

  • Configure a IA para que, ao não saber uma resposta, forneça uma resposta educada e recomendação para procurar informações adicionais. Por exemplo:
    • “Desculpe, não tenho informações sobre isso no momento. Recomendo procurar em fontes confiáveis ou realizar uma pesquisa na internet para obter as informações mais atualizadas.”

5. Implementação de Busca Online:

  • Para adicionar a capacidade de buscar informações online, você precisará integrar APIs de busca ou sistemas que permitam a consulta à web. Atualmente, os modelos GPT não têm a capacidade de buscar na internet diretamente sem uma integração externa.

6. Outros Parâmetros Técnicos:

  • num_ctx: Ajuste se necessário para garantir que o contexto fornecido é suficiente para manter a coerência e relevância nas respostas.
  • num_thread e num_gpu: Mantenha conforme seu hardware para garantir desempenho ideal.

Exemplo de configuração

data = {
“model”: “etx”,
“language”: “portuguese”,
“num_predict”: 1,
“top_k”: 10, // Limita a seleção das palavras mais prováveis, mantendo a relevância.
“top_p”: 0.7, // Controla a diversidade das respostas ao considerar o núcleo de probabilidade.
“min_p”: 0.05, // Define a probabilidade mínima para considerar palavras menos frequentes.
“tfs_z”: 0.5, // Controla a suavidade da distribuição de palavras.
“typical_p”: 0.7, // Ajusta a diversidade das respostas, mantendo relevância.
“repeat_last_n”: 20, // Limita a repetição de palavras recentes para manter a fluidez.
“temperature”: 0.2, // Mantém a previsibilidade e evita respostas criativas e não confiáveis.
“repeat_penalty”: 1.0, // Evita repetições indesejadas nas respostas.
“presence_penalty”: 1.0, // Incentiva respostas variadas e evita repetição de tópicos.
“frequency_penalty”: 1.0, // Reduz a probabilidade de repetir palavras ou frases.
“mirostat”: 1, // Usa o método Mirostat para ajustar dinamicamente a criatividade.
“mirostat_tau”: 0.8, // Controla a agressividade do ajuste da temperatura.
“mirostat_eta”: 0.6, // Ajusta a suavidade do ajuste dinâmico da temperatura.
“num_ctx”: 32760, // Define o contexto máximo para garantir a coerência nas respostas.
“num_batch”: 1, // Define o número de lotes de processamento por vez.
“num_gpu”: 1, // Usa uma GPU para acelerar o processamento.
“main_gpu”: 0, // Define qual GPU principal será utilizada.
“num_thread”: 12, // Número de threads para processamento paralelo.
“stop”: null // Não define tokens de parada específicos, permitindo respostas completas.
“messages”: [{“role”: “user”, “content”: f”{static_prompts}\n\n{prompt}”}]
}