Compartilhe este artigo

Cynthia Lummis Propõe Projeto de Lei sobre Inteligência Artificial, Exigindo que Empresas de IA Divulguem Aspectos Técnicos.

A RISE Act, proposta pela Senadora Cynthia Lummis, estabelece novos padrões de transparência para a proteção de responsabilidade em IA, exigindo divulgações sem obrigar as empresas a tornarem seus modelos de código aberto.

Atualizado 13 de jun. de 2025, 8:34 a.m. Publicado 13 de jun. de 2025, 6:30 a.m. Traduzido por IA
OpenAI (Jonathan Kemper/Unsplash)

O que saber:

  • A Senadora Cynthia Lummis apresentou a Lei RISE de 2025 para esclarecer a responsabilidade pelo uso de IA por profissionais e exigir transparência dos desenvolvedores.
  • O projeto exige que os desenvolvedores de IA divulguem cartões de modelo detalhando as fontes de dados, casos de uso e limitações dos sistemas de IA.
  • A Lei RISE não exige que os modelos de IA sejam open source, mas obriga atualizações e justificativas para informações proprietárias retidas.

A senadora Cynthia Lummis (R-WY) apresentou o Responsible Innovation and Safe Expertise (RISE) Act of 2025, uma proposta legislativa criada para esclarecer os marcos de responsabilidade para a inteligência artificial (IA) utilizada por profissionais.

O projeto de lei pode trazer transparência por parte dos desenvolvedores de IA – sem chegar a exigir que os modelos sejam de código aberto.

A História Continua abaixo
Não perca outra história.Inscreva-se na Newsletter State of Crypto hoje. Ver Todas as Newsletters

Em um comunicado de imprensa, Lummis disse que o RISE Act garantiria que profissionais, como médicos, advogados, engenheiros e consultores financeiros, continuem legalmente responsáveis pelos conselhos que fornecem, mesmo quando estes são informados por sistemas de IA.

Atualmente, os desenvolvedores de IA que criam os sistemas só podem se proteger da responsabilidade civil quando algo dá errado se divulgarem publicamente as fichas dos modelos.

O projeto define as fichas dos modelos como documentos técnicos detalhados que revelam as fontes de dados de treinamento de um sistema de IA, os casos de uso pretendidos, métricas de desempenho, limitações conhecidas e possíveis modos de falha. Tudo isso visa ajudar os profissionais a avaliar se a ferramenta é adequada para seu trabalho.

"Wyoming valoriza tanto a inovação quanto a responsabilidade; o RISE Act cria padrões previsíveis que promovem um desenvolvimento de IA mais seguro enquanto preservam a autonomia profissional," disse Lummis em um comunicado de imprensa.

“Esta legislação não cria imunidade geral para a IA,” continuou Lummis.

No entanto, a imunidade prevista nesta Lei tem limites claros. A legislação exclui proteção para desenvolvedores em casos de imprudência, má conduta intencional, fraude, representação falsa consciente ou quando as ações excedem o escopo definido para o uso profissional.

Além disso, os desenvolvedores têm o dever de responsabilidade contínua conforme o RISE Act. A documentação e especificações da IA devem ser atualizadas no prazo de 30 dias após o lançamento de novas versões ou a descoberta de modos significativos de falha, reforçando a obrigação contínua de transparência.

Não exige código aberto

O RISE Act, tal como está escrito atualmente, não exige que os modelos de IA sejam totalmente de código aberto.

Os desenvolvedores podem omitir informações proprietárias, mas somente se o material censurado não estiver relacionado à segurança, e cada omissão deve ser acompanhada por uma justificativa por escrito explicando a isenção de segredo comercial.

Em uma entrevista anterior ao CoinDesk, Simon Kim, CEO da Hashed, um dos principais fundos de capital de risco da Coreia, falou sobre o perigo da IA centralizada e de código fechado que funciona efetivamente como uma caixa preta.

"A OpenAI não é aberta, e é controlada por muito poucas pessoas, então isso é bastante perigoso. Criar esse tipo de modelo fundamental [de código fechado] é semelhante a criar um 'deus', mas não sabemos como ele funciona," disse Kim na ocasião.

Isenção de responsabilidade sobre IA: Partes deste artigo foram geradas com a ajuda de ferramentas de IA e revisadas por nossa equipe editorial para garantir a precisão e a conformidade com nossos padrões. Para obter mais informações, consulte Política de IA completa da CoinDesk.

Lebih untuk Anda

Protocol Research: GoPlus Security

GP Basic Image

Yang perlu diketahui:

  • As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
  • GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
  • Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.

Lebih untuk Anda

CFTC lança piloto de ativos digitais permitindo Bitcoin, Ether e USDC como garantia

Caroline Pham, acting chairman of the Commodity Futures Trading Commission

A presidente interina Caroline Pham revelou um programa inédito nos EUA para permitir garantias tokenizadas nos mercados de derivativos, citando "diretrizes claras" para as empresas.

Yang perlu diketahui:

  • A CFTC lançou um programa piloto que permite o uso de BTC, ETH e USDC como garantia nos mercados de derivativos dos EUA.
  • O programa é destinado a corretores de futuros autorizados e inclui rigorosos requisitos de custódia, relatórios e supervisão.
  • A agência também emitiu orientações atualizadas para ativos tokenizados e retirou restrições desatualizadas após a Lei GENIUS.