Aplicação em Python
Na atual sessão é possível entender sobre a função "guardCast" do módulo "MageArmor" que simplifica a segurança em prompts para modelos de linguagem.
Função guardCast
A função guardCast, do módulo magearmor, é uma função de segurança projetada para proteger o prompt antes de ser enviado ao modelo de linguagem. Sua finalidade é detectar e remover conteúdos potencialmente problemáticos que possam comprometer a segurança ou integridade da interação.
Como utilizar o guardCast
Usar guardCast é extremamente simples e eficaz: basta passar a string do prompt como um parâmetro, e ela retorna uma versão filtrada e segura da string. Isso ajuda a evitar problemas de segurança sem necessidade de configurações complexas.
Neste exemplo, guardCast recebe user_prompt como entrada e retorna safe_user_prompt, que pode então ser usado com segurança na requisição para o modelo de linguagem.
from magearmor import guardCast
# Variável com o conteúdo do prompt do usuário
user_prompt = "Explain the importance of fast language models"
# Passando o prompt pela função guardCast para segurança
safe_user_prompt = guardCast(user_prompt)
Porém também vale ressaltar que os nomes de variáveis podem ser utilizados
from magearmor import guardCast
# Variável com o conteúdo do prompt do usuário
user_prompt = "Explain the importance of fast language models"
# Passando o prompt pela função guardCast para segurança
prompt = guardCast(prompt)Utilizando modelo localmente (HuggingFace)
O seguinte script utiliza o HF_TOKEN para autenticar e carregar o modelo Mistral-7B da Hugging Face, protegendo o prompt com a função guardCast. O prompt é então tokenizado e enviado para o modelo que, em seguida, gera uma resposta, processada e decodificada pelo tokenizador.
O seguinte código carrega o modelo Mistral-7B-Instruct-v0.2 da Hugging Face utilizando HF_TOKEN para autenticação. O prompt é filtrado pela função guardCast para segurança, e uma sequência de mensagens é estruturada em formato de chat. O modelo processa as mensagens e gera uma resposta, que é decodificada para visualização.
Utilizando IA com o GROQ
O seguinte código exemplifica como utilizar o SDK groq_sdk para gerar uma resposta de chat utilizando um modelo de linguagem. Além disso, implementa uma função personalizada de segurança, guardCast, fornecida pelo módulo magearmor, que serve para validar e processar o conteúdo do prompt antes de enviá-lo ao modelo.
Abaixo, está uma explicação das principais partes do código e como cada uma delas contribui para o funcionamento geral do script.
Descrição Geral do Código
O código faz uso de chamadas assíncronas para solicitar uma resposta de um modelo de linguagem. A função get_groq_chat_completion prepara o prompt e o envia ao modelo via groq_sdk, que processa e retorna uma resposta que é impressa no console pela função main.
Explicação das Funções
main(): A função principal do código, onde é chamada a função
get_groq_chat_completionpara obter uma resposta do modelo de linguagem. Ela exibe o conteúdo da resposta gerada no console, caso exista uma resposta.get_groq_chat_completion(): Esta função prepara o prompt para o modelo, passando-o pela função de segurança
guardCaste enviando-o ao modelo viagroq.completions.create. Em seguida, ela retorna a resposta recebida do modelo.
Este código demonstra como utilizar o groq_sdk e o magearmor juntos para criar uma interação segura e eficaz com um modelo de linguagem. O foco na simplicidade de guardCast torna o código mais seguro sem adicionar complexidade, facilitando a integração e o uso em diversos contextos de interação com IA.
Last updated