O meu amigo desabafou comigo, e o que ele mais teme agora não são as oscilações do mercado, mas “o sistema que toma decisões por ti”. Ele disse que já se habituou a perder dinheiro, mas não consegue suportar uma situação:
O dinheiro desaparece, e tu nem sabes porquê. Não é por ter sido hackeado, nem por erro de operação, mas por uma frase: “Modelo de IA que decide automaticamente.” Se colocarmos isto no contexto da blockchain, é especialmente perigoso. Todos nós já passámos pela fase inicial do DeFi. Contratos de caixa preta, parâmetros misteriosos, o fundador a dizer “confie no código”, e quando algo corre mal, toda a rede começa a fazer investigação.
Hoje em dia, muitos projetos de IA estão, na essência, a repetir o mesmo caminho antigo. Modelos mais complexos, ações mais rápidas, permissões maiores, mas a transparência é ainda menor. Quando a IA começa a lidar com fundos, gestão de risco e execução, o problema já não é se ela é inteligente ou não, mas: como é que ela pensa nesta etapa? Foi alterada no meio do caminho? Consegues fazer uma análise posterior?
A maioria dos projetos não consegue responder a isso. Por isso, quando vejo @inference_labs, sinto que é diferente. Eles não falam de desempenho, escala ou throughput, mas abordam uma questão fundamental que tem sido evitada: A decisão da IA pode ser verificada como uma transação na blockchain. Proof of Inference faz uma coisa simples e dura: Não é “eu calculei”, mas “tu podes verificar por ti mesmo”. DSperse, JSTprove também seguem a mesma lógica: Transformar cada raciocínio e execução da IA em algo com origem, processo e resultado. Não é uma história, é um registo. Podes entender isto como uma camada de auditoria na blockchain para a IA. Assim como confiamos em contratos inteligentes, não porque eles nunca falham, mas porque: Se algo der errado, podes ver todo o processo detalhado. Quando foi chamado, que inputs foram usados, a responsabilidade é clara. Para mim, @inference_labs não está a fazer uma IA mais radical, mas a criar uma barreira para a “entrada real da IA no mundo”. Se a IA for sempre uma caixa preta, por mais forte que seja, só vai criar insegurança. Só quando ela puder ser reproduzida, auditada e responsabilizada, é que estará realmente pronta para uso.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O meu amigo desabafou comigo, e o que ele mais teme agora não são as oscilações do mercado, mas “o sistema que toma decisões por ti”. Ele disse que já se habituou a perder dinheiro, mas não consegue suportar uma situação:
O dinheiro desaparece, e tu nem sabes porquê.
Não é por ter sido hackeado, nem por erro de operação, mas por uma frase:
“Modelo de IA que decide automaticamente.”
Se colocarmos isto no contexto da blockchain, é especialmente perigoso.
Todos nós já passámos pela fase inicial do DeFi.
Contratos de caixa preta, parâmetros misteriosos, o fundador a dizer “confie no código”, e quando algo corre mal, toda a rede começa a fazer investigação.
Hoje em dia, muitos projetos de IA estão, na essência, a repetir o mesmo caminho antigo.
Modelos mais complexos, ações mais rápidas, permissões maiores, mas a transparência é ainda menor.
Quando a IA começa a lidar com fundos, gestão de risco e execução, o problema já não é se ela é inteligente ou não, mas: como é que ela pensa nesta etapa? Foi alterada no meio do caminho? Consegues fazer uma análise posterior?
A maioria dos projetos não consegue responder a isso.
Por isso, quando vejo @inference_labs, sinto que é diferente. Eles não falam de desempenho, escala ou throughput, mas abordam uma questão fundamental que tem sido evitada:
A decisão da IA pode ser verificada como uma transação na blockchain.
Proof of Inference faz uma coisa simples e dura:
Não é “eu calculei”, mas “tu podes verificar por ti mesmo”.
DSperse, JSTprove também seguem a mesma lógica:
Transformar cada raciocínio e execução da IA em algo com origem, processo e resultado.
Não é uma história, é um registo.
Podes entender isto como uma camada de auditoria na blockchain para a IA.
Assim como confiamos em contratos inteligentes, não porque eles nunca falham, mas porque:
Se algo der errado, podes ver todo o processo detalhado.
Quando foi chamado, que inputs foram usados, a responsabilidade é clara.
Para mim, @inference_labs não está a fazer uma IA mais radical,
mas a criar uma barreira para a “entrada real da IA no mundo”.
Se a IA for sempre uma caixa preta, por mais forte que seja, só vai criar insegurança.
Só quando ela puder ser reproduzida, auditada e responsabilizada, é que estará realmente pronta para uso.