Um primeiro passo de mudança aconteceu. Quando se pensa na adoção de modelos de NLP (Natural Language Processing), a abordagem mais poderosa do momento são as LLMs (Large Language Models), que explodiram com o surgimento do ChatGPT. Mas, na prática, usar as LLMs é muito mais do que usar um ChatGPT.
No geral, as LLMs são tipos de algoritmos de aprendizagem de máquina, que utilizam a arquitetura Transformer e que se propõem a responder perguntas realizadas com linguagens naturais de forma eficaz e rápida. Esse modelo entra numa linha de algoritmos muito complexos de serem implementados e processados e, por isso, somente há pouco tempo passou a ganhar considerável destaque.
Por que há situações em que as LLMs respondem equivocadamente e trazem a sensação de alucinação? Como evitar esse processo? Fornecendo informações de contexto, antes de realizar a pergunta, a assertividade da resposta aumenta. Como assim? Se você perguntar qual é a melhor opção de cor de um pincel para escrever em um quadro, a IA pode simplesmente sugerir o pincel preto. Como a maioria dos quadros são brancos, a resposta caminhará para o lado da maior probabilidade. Mas, e se a sala tiver pouca luminosidade e o quadro também for escuro? A resposta pincel preto pode não ser boa. Aí está a importância do que é chamado de contexto: forneça esses elementos e a assertividade será maior.
Dica simples:
No prompt “inclua o contexto”, escreva a pergunta com riqueza de informações importantes.
Nas próximas interações com a IA Generativa, é importante referenciar o contexto durante a elaboração das perguntas para evitar alucinações.
Com todo o potencial existente, por que a utilização da IA não era comum?
Dando contexto (rs), já falamos que algoritmos de IA são de alta complexidade, são computacionalmente intensivos e, geralmente, requerem recursos significativos, o que se traduz em custos financeiros elevados. Além disso, a dificuldade em desenvolvê-los e mantê-los foi a barreira que nos manteve distantes da utilização na construção de softwares.
As arquiteturas dos sistemas monolíticos (grandes blocos com forte dependência) foram quebradas em serviços, aumentando o reuso de código, reduzindo o completo downtime de produção e simplificando a complexidade das evoluções e manutenção de negócios, assuntos muito críticos no mundo exponencial. Buscávamos simplicidade, e a IA ficou em Parking Lot. O cenário mudou: passamos a ter nas mãos soluções e modelos de IA já pré-treinadas e com custos acessíveis.
A adoção da IA Generativa
Devemos adotar um olhar diferente e avaliar, dentro do fluxo de valor de negócio, quais partes podem utilizar IA, seja Generativa ou não, para obter resultados que as pessoas possam tomar decisões ou permitir que a própria IA decida o que fazer.
Onde encaixá-la no desenvolvimento de novos produtos de software? Como eles podem ser impactados? Aqueles vários cadastros construídos ou serviços que são consumidos no ecossistema de aplicações podem ser ou não desenvolvidos seguindo princípios tradicionais. Um processo de hiperautomação já pode ser adotado há algum tempo, com as informações sendo preenchidas automaticamente por leituras de documentos físicos ou integrando dados descentralizados e salvando em formatos específicos. Dentre estes passos ou depois, começa a mágica: por que não permitir que a própria IA Generativa conheça as regras de negócio do sistema e avalie as necessidades para a tomada de decisão?
Os sistemas de informação tradicionais são conjuntos de conexões bem descritas e com protocolos claros, que permitem comunicações entre eles. São engrenagens que devem ser desenvolvidas em um formato bem definido para a fluida conexão. Assim funcionam as integrações, como um Jogo Infantil de Encaixes Geométricos.
Com a IA Generativa, a regra muda: ao invés de termos que colocar um quadrado no encaixe do quadrado e um triângulo e um círculo nos seus respectivos formatos, passamos a ter um “Diamante Mágico”, que pode ser encaixado em qualquer uma dessas formas, em linguagem natural e em diferentes idiomas. É fantástico! Mas, na prática, é necessário abordar o assunto de assistentes e/ou agentes e codificá-los. A promessa de vida NO CODE ainda não chegou, mas o que importa é que a adoção da IA Generativa já é possível e viável, muito além das funcionalidades permitidas no ChatGPT.
Equipes
A engenharia de prompt aqui será importantíssima. Portanto, ter um Engenheiro de Prompt no time ou parceiros com conhecimento no assunto é fundamental para o sucesso da abordagem. Ter um ótimo Arquiteto de Software para escalar essas soluções continua sendo fator de sucesso. No entanto, cria-se um NOVO PAPEL ou atividade para os profissionais já existentes, que terão que entender de forma ampla e profunda o potencial da IA Generativa, criando uma nova abordagem de Design de solução tão poderosa que beira a uma mudança de paradigma no desenvolvimento ou realização do negócio. Em resumo, com a evolução da IA teremos um novo formato de equipes, parcial ou completamente diferente dos atuais.
Agilidade na Engenharia e os Agentes
Enquanto a Agilidade trouxe uma relação de produção focada no resultado e geração de valor, através da mudança de mindset e a introdução de novas metodologias, colocando o software como protagonista e se transformando em produto digital, a IA traz uma mudança prática de engenharia da computação e introduz novos algoritmos, técnicas de desenvolvimento e frameworks voltados a aprendizado de máquina e dados. É uma agilidade que pode ser altamente escalável para a produção de qualquer tipo de serviço. É maravilhosa essa nova oportunidade.
Como usá-los? Um caminho é decompor o seu processo atual ou novo e pensar onde poderíamos construir “personas digitais” que serão desenvolvidas para realizar tarefas de diferentes graus de complexidade, para que o “Diamante Mágico” seja encaixado nessas lacunas do processo. Essas “personas digitais” são chamadas de Agentes.
Os Agentes são algumas das estratégias de implementação da IA que podem representar um papel, perfil ou coisa, e interagir isoladamente ou entre si, criando uma grande rede capaz de otimizar e/ou simular cenários simples e complexos, tomando ações automáticas ou não.
Conceituando de uma forma mais acadêmica, Agente: “algo capaz de perceber seu ambiente por meio de sensores e de agir sobre seu ambiente por intermédio de atuadores”. (Russell & Norvig)
Segurança e Proteção dos dados
Outro aspecto importantíssimo é a segurança e proteção das informações. Soluções de LLM Free, assim como as pagas, normalmente se preocupam com questões de lei de proteção de dados. No entanto, há diferenças em funcionalidades disponíveis, suporte e relatórios de auditorias, o que pode significar muito para as corporações na escolha da melhor opção de modelos ou tipos de contratos.
Mesmo seguindo a lei de proteção de dados, ainda existem muitos questionamentos sobre o que será feito com as informações após o compartilhamento dos dados utilizando a IA Generativa. Como o modelo de aprendizagem de máquina e algoritmos de Transformer irá tratar os dados? A exemplo disso, o Diário Oficial da União publicou no dia 02/07/2024 um despacho decisório, como medida protetiva, determinando que a Meta Platforms INC – Facebook Serviços suspendesse no Brasil o treinamento de sistemas de IA Generativa com dados pessoais.
Custos
Quanto mais contexto fornecer, maior for o número de interações, maior for o volume de tokens dessas interações e maior forem os outputs da IA Generativa, mais caro ficará. E com a necessidade de mais ciclos, a sua solução poderá ser classificada em outro nível de TIER, que encarecerá mais o uso (no GPT são 5 Tiers). O conhecimento destes impactantes atributos, com uma inteligente abordagem de utilização de modelos e prompts bem escritos, poderá viabilizar o uso destas soluções.
Ganhos
E os ganhos, Árley Duque, onde estão e como mensurá-los? Após a identificação de onde o diamante será encaixado e quais Agentes serão desenvolvidos, será necessário esboçar e/ou planilhar quais alavancas de resultados são possíveis a partir da implementação da solução do software. Exemplo: quantas horas de trabalho serão reduzidas para produzir este software usando a IA Generativa?
Ou pensando no negócio: fazendo um decouple do processo, identificando quais atividades podem ser substituídas com a nova abordagem ou quais serão otimizadas ou excluídas. Aqui os OKRs poderão ajudar.
Simplificando, a conta será algo do tipo:
Potenciais de Ganhos – Custo de Implementação – Custos de Cloud – Custo com Tokens
O resultado precisa ser positivo.
E os modelos LLM Free e/ou Open Source não poderiam ser utilizados? Estes ainda não entregam o mesmo valor dos modelos pagos, e realizar fine-tuning, técnica adotada para treinar modelos, não é uma tarefa simples. Isso trará mais complexidade e custo para o processo.
Portanto, adotar práticas já conhecidas de OKR e entender esses novos pontos que a IA impacta é um passo importantíssimo para complementar o entendimento sobre o uso desse Diamante Mágico que se encaixa em diferentes formas geométricas.
Conclusão
Agentes aplicados adequadamente podem reduzir o tempo de execução de atividades tendendo a 100% e com um enorme potencial de redução de custos. Análises de documentos, predição de manutenção, predição de doenças, redução de CAC, planejamento e programação de tarefas, além de inspeção de áreas de risco ou pessoas, são exemplos de utilização de um conjunto diferente de tipos de IA. Com a Generativa é possível potencializar ainda mais o campo de aplicação da Inteligência Artificial.
Combinar estes múltiplos assuntos será importante para a construção de uma solução tecnológica que entregue valor. Bem aplicado, seus produtos poderão se transformar de diamantes amarelos e marrons no Krupp Diamond. Ao não compreendê-los, você poderá ter em suas mãos um Hope Diamond.