Compartilhe este artigo

Podemos confiar em agentes de IA?

A IA descentralizada nos oferece um caminho para confiar nos agentes que em breve preencherão nossas vidas digitais, diz Marko Stokic, chefe de IA na Oasis.

Atualizado 30 de set. de 2024, 5:06 p.m. Publicado 30 de set. de 2024, 5:06 p.m. Traduzido por IA
(Growtika/Unsplash)
(Growtika/Unsplash)

O renomado psicólogo de Harvard BF Skinner opinou uma vez que o "verdadeiro problema não é se as máquinas pensam, mas se os homens fazem". Esta observação espirituosa ressalta um ponto outrora crucial: que nossa confiança na Tecnologia depende do julgamento Human . Não é com a inteligência das máquinas que devemos nos preocupar, mas com a sabedoria e a responsabilidade daqueles que a controlam. Ou pelo menos que erao caso.

Com softwares como o ChatGPT agora sendo parte integrante de muitas vidas profissionais, a percepção de Skinner parece quase pitoresca. A ascensão meteórica dos agentes de IA – entidades de software capazes de perceber seu ambiente e tomar ações para atingir objetivos específicos – mudou fundamentalmente o paradigma. Esses assistentes digitais, nascidos do boom da IA do consumidor no início dos anos 2020, agora permeiam nossas vidas digitais, lidando com tarefas desde agendar compromissos até tomar decisões de investimento.

A História Continua abaixo
Não perca outra história.Inscreva-se na Newsletter CoinDesk Headlines hoje. Ver Todas as Newsletters

O que são agentes de IA?

Os agentes de IA diferem significativamente de modelos de linguagem grandes (LLMs) como o ChatGPT em sua capacidade de ação autônoma. Enquanto os LLMs processam e geram principalmente texto, os agentes de IA são projetados para perceber seu ambiente, tomar decisões e realizar ações para atingir objetivos específicos. Esses agentes combinam várias tecnologias de IA, incluindo processamento de linguagem natural, visão computacional e aprendizado por reforço, permitindo que eles se adaptem e Aprenda com suas experiências.

Mas, à medida que os agentes de IA proliferam e iteram, também surge um desconforto corrosivo. Podemos realmente confiar nessas entidades digitais? A questão está longe de ser acadêmica. Os agentes de IA operam em ambientes complexos, tomando decisões com base em vastos conjuntos de dados e algoritmos intrincados que até mesmo seus criadores lutam para compreender completamente. Essa opacidade inerente gera desconfiança. Quando um agente de IA recomenda um tratamento médico ou prevê tendências de mercado, como podemos ter certeza do raciocínio por trás de suas escolhas?

As consequências da confiança equivocada em agentes de IA podem ser terríveis. Imagine um consultor financeiro com tecnologia de IA que inadvertidamente derruba Mercados devido a um ponto de dados mal interpretado, ou uma IA de assistência médica que recomenda tratamentos incorretos com base em dados de treinamento tendenciosos. O potencial de dano não se limita a setores individuais; à medida que os agentes de IA se tornam mais integrados em nossas vidas diárias, sua influência cresce exponencialmente. Um passo em falso pode repercutir na sociedade, afetando tudo, desde a Política de Privacidade pessoal até a economia global.

No cerne desse déficit de confiança está uma questão fundamental: centralização. O desenvolvimento e a implantação de modelos de IA têm sido, em grande parte, da alçada de um punhado de gigantes da tecnologia. Esses modelos centralizados de IA operam como caixas-pretas, seus processos de tomada de decisão obscurecidos do escrutínio público. Essa falta de transparência torna virtualmente impossível confiar em suas decisões em operações de alto risco. Como podemos confiar em um agente de IA para fazer escolhas críticas quando não podemos entender ou verificar seu raciocínio?

A descentralização como resposta

No entanto, uma solução para essas preocupações existe: IA descentralizada. Um paradigma que oferece um caminho para agentes de IA mais transparentes e confiáveis. Essa abordagem alavanca os pontos fortes da Tecnologia blockchain e outros sistemas descentralizados para criar modelos de IA que não são apenas poderosos, mas também responsáveis.

As ferramentas para construir confiança em agentes de IA já existem. Blockchains podem permitir computação verificável, garantindo que as ações de IA sejam auditáveis ​​e rastreáveis. Cada decisão que um agente de IA toma pode ser registrada em um livro-razão público, permitindo transparência sem precedentes. Ao mesmo tempo, técnicas criptográficas avançadas como aprendizado de máquina de ambiente de execução confiável (TeeML) podem proteger dados confidenciais e manter a integridade do modelo, alcançando transparência e Política de Privacidade.

À medida que os agentes de IA operam cada vez mais adjacentes ou diretamente em blockchains públicos, o conceito de verificabilidade se torna crucial. Os modelos tradicionais de IA podem ter dificuldade para provar a integridade de suas operações, mas os agentes de IA baseados em blockchain podem fornecer garantias criptográficas de seu comportamento. Essa verificabilidade não é apenas uma sutileza técnica; é um requisito fundamental para a confiança em ambientes de alto risco.

Técnicas de computação confidenciais, particularmente ambientes de execução confiáveis ​​(TEEs), oferecem uma camada importante de garantia. Os TEEs fornecem um enclave seguro onde as computações de IA podem ocorrer, isoladas de interferência potencial. Essa Tecnologia garante que mesmo os operadores do sistema de IA não possam adulterar ou espionar o processo de tomada de decisão do agente, reforçando ainda mais a confiança.

Frameworks como o Runtime Off-chain Logic (ROFL) da Oasis Network representam a vanguarda dessa abordagem, permitindo a integração perfeita de computação de IA verificável com auditabilidade e transparência on-chain. Essas inovações expandem as possibilidades para aplicativos orientados por IA, mantendo os mais altos padrões de confiança e transparência.

Rumo a um futuro de IA confiável

O caminho para agentes de IA confiáveis não é isento de desafios. Obstáculos técnicos permanecem, e a adoção generalizada de sistemas de IA descentralizados exigirá uma mudança nas práticas da indústria e no entendimento público. No entanto, as recompensas potenciais são imensas. Imagine um mundo onde agentes de IA tomam decisões críticas com total transparência, onde suas ações podem ser verificadas e auditadas por qualquer pessoa, e onde o poder da inteligência artificial é distribuído em vez de concentrado nas mãos de algumas corporações.

Também há a chance de desbloquear um crescimento econômico significativo. Um 2023 estudarde Pequim descobriu que um aumento de 1% na penetração de IA leva a um aumento de 14,2% na produtividade total dos fatores (TFP). No entanto, a maioria dos estudos de produtividade de IA se concentra em LLMs gerais, não em agentes de IA. Agentes autônomos de IA capazes de executar várias tarefas de forma independente poderiam potencialmente gerar maiores ganhos de produtividade. Agentes de IA confiáveis e auditáveis provavelmente seriam ainda mais eficazes.

Talvez seja hora de atualizar a famosa citação de Skinner. O problema real não é mais se as máquinas pensam, mas se podemos confiar em seus pensamentos. Com IA descentralizada e blockchain, temos as ferramentas para construir essa confiança. A questão agora é se temos a sabedoria para usá-las.

Observação: as opiniões expressas nesta coluna são do autor e não refletem necessariamente as da CoinDesk, Inc. ou de seus proprietários e afiliados.

Nota: As opiniões expressas nesta coluna são do autor e não refletem necessariamente as da CoinDesk, Inc. ou de seus proprietários e afiliados.

Mais para você

Protocol Research: GoPlus Security

GP Basic Image

O que saber:

  • As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
  • GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
  • Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.

Mais para você

MSCI Não Está Errada em Ser Cautelosa com DATs

bull, bear facing off

À medida que a principal fornecedora de índices MSCI considera excluir tesourarias de ativos digitais (DATs) de sua gama de índices, vale a pena analisar o perfil de risco desses veículos de investimento para determinar se eles realmente atendem a esses parâmetros, afirma Nic Puckrin, cofundador do Coin Bureau.