Aplicação em Python

Na atual sessão é possível entender sobre a função "guardCast" do módulo "MageArmor" que simplifica a segurança em prompts para modelos de linguagem.

Função guardCast

A função guardCast, do módulo magearmor, é uma função de segurança projetada para proteger o prompt antes de ser enviado ao modelo de linguagem. Sua finalidade é detectar e remover conteúdos potencialmente problemáticos que possam comprometer a segurança ou integridade da interação.

Como utilizar o guardCast

Usar guardCast é extremamente simples e eficaz: basta passar a string do prompt como um parâmetro, e ela retorna uma versão filtrada e segura da string. Isso ajuda a evitar problemas de segurança sem necessidade de configurações complexas.

Neste exemplo, guardCast recebe user_prompt como entrada e retorna safe_user_prompt, que pode então ser usado com segurança na requisição para o modelo de linguagem.

from magearmor import guardCast

# Variável com o conteúdo do prompt do usuário
user_prompt = "Explain the importance of fast language models"

# Passando o prompt pela função guardCast para segurança
safe_user_prompt = guardCast(user_prompt)

Porém também vale ressaltar que os nomes de variáveis podem ser utilizados

from magearmor import guardCast

# Variável com o conteúdo do prompt do usuário
user_prompt = "Explain the importance of fast language models"

# Passando o prompt pela função guardCast para segurança
prompt = guardCast(prompt)

Utilizando modelo localmente (HuggingFace)

O seguinte script utiliza o HF_TOKEN para autenticar e carregar o modelo Mistral-7B da Hugging Face, protegendo o prompt com a função guardCast. O prompt é então tokenizado e enviado para o modelo que, em seguida, gera uma resposta, processada e decodificada pelo tokenizador.

O seguinte código carrega o modelo Mistral-7B-Instruct-v0.2 da Hugging Face utilizando HF_TOKEN para autenticação. O prompt é filtrado pela função guardCast para segurança, e uma sequência de mensagens é estruturada em formato de chat. O modelo processa as mensagens e gera uma resposta, que é decodificada para visualização.

Utilizando IA com o GROQ

O seguinte código exemplifica como utilizar o SDK groq_sdk para gerar uma resposta de chat utilizando um modelo de linguagem. Além disso, implementa uma função personalizada de segurança, guardCast, fornecida pelo módulo magearmor, que serve para validar e processar o conteúdo do prompt antes de enviá-lo ao modelo.

Abaixo, está uma explicação das principais partes do código e como cada uma delas contribui para o funcionamento geral do script.

Descrição Geral do Código

O código faz uso de chamadas assíncronas para solicitar uma resposta de um modelo de linguagem. A função get_groq_chat_completion prepara o prompt e o envia ao modelo via groq_sdk, que processa e retorna uma resposta que é impressa no console pela função main.

Explicação das Funções

  • main(): A função principal do código, onde é chamada a função get_groq_chat_completion para obter uma resposta do modelo de linguagem. Ela exibe o conteúdo da resposta gerada no console, caso exista uma resposta.

  • get_groq_chat_completion(): Esta função prepara o prompt para o modelo, passando-o pela função de segurança guardCast e enviando-o ao modelo via groq.completions.create. Em seguida, ela retorna a resposta recebida do modelo.

Este código demonstra como utilizar o groq_sdk e o magearmor juntos para criar uma interação segura e eficaz com um modelo de linguagem. O foco na simplicidade de guardCast torna o código mais seguro sem adicionar complexidade, facilitando a integração e o uso em diversos contextos de interação com IA.

Last updated