Março 29, 2024

O Ribatejo | jornal regional online

Informações sobre Portugal. Selecione os assuntos que deseja saber mais sobre a Folha d Ouro Verde

Agora que as máquinas são capazes de aprender, elas conseguem aprender?

Andrey Onofrenko | Getty Images

Empresas de todos os tipos usam aprendizado de máquina Para analisar os desejos, desgostos ou rostos das pessoas. Alguns pesquisadores agora estão fazendo uma pergunta diferente: como podemos fazer as máquinas esquecerem?

Uma área emergente na ciência da computação é chamada de máquina amnésia Procurando maneiras de induzir amnésia seletiva em Inteligência artificial Programas. O objetivo é remover todos os vestígios de uma determinada pessoa ou ponto de dados do sistema de aprendizado de máquina, sem afetar seu desempenho.

Se o conceito se tornar prático, ele pode dar às pessoas mais controle sobre seus dados e o valor derivado deles. Embora os usuários possam realmente pedir a algumas empresas que excluam dados pessoais, eles geralmente não sabem quais algoritmos suas informações ajudaram a ajustar ou treinar. O desaprendizado pode permitir que uma pessoa retire seus dados e a capacidade da empresa de aproveitá-los.

Por mais evidente que qualquer um tenha deduzido o que compartilharam online, a ideia de amnésia artificial requer algumas ideias novas na ciência da computação. As empresas gastam milhões de dólares treinando algoritmos de aprendizado de máquina para reconhecer rostos ou classificar postagens sociais, porque os algoritmos geralmente podem resolver um problema mais rapidamente do que os programadores humanos sozinhos. Mas, uma vez treinado, o sistema de aprendizado de máquina não pode ser alterado facilmente, ou mesmo entender. A maneira tradicional de remover o impacto de um determinado ponto de dados é reconstruir um sistema do zero, um processo que pode ser caro. “Esta pesquisa tem como objetivo encontrar um meio-termo”, diz Aaron Roth, professor da Universidade da Pensilvânia que está trabalhando para remover o aprendizado de máquina. “Podemos remover o impacto total dos dados de alguém quando eles solicitam a exclusão, mas evitar o custo total do retreinamento desde o início?”

READ  Como habilitar o novo rastreamento de pacotes do Gmail no Android e iOS

O trabalho para descartar o aprendizado de máquina é alimentado em parte por um interesse crescente nas maneiras como a IA pode corroer a privacidade. Os reguladores de dados em todo o mundo há muito têm o poder de forçar as empresas a excluir informações ilícitas. Cidadãos de algumas áreas, como eu E CalifórniaEm vez disso, tem o direito de exigir que a empresa exclua seus dados, caso tenha mudado de posição em relação ao que divulgou. Recentemente, reguladores americanos e europeus disseram que os proprietários de sistemas de IA às vezes precisam dar um passo à frente: excluir um sistema que foi treinado com dados confidenciais.

No ano passado, o regulador de dados do Reino Unido Avisando empresas Que alguns softwares de aprendizado de máquina podem estar sujeitos a direitos GDPR, como exclusão de dados, porque o sistema AI pode conter dados pessoais. Pesquisadores de segurança mostraram Às vezes, os algoritmos podem ser forçados a vazar os dados confidenciais usados ​​para criá-los. No início deste ano, a Comissão Federal de Comércio dos EUA Inicialização forçada do reconhecimento facial do Paravision Para excluir um conjunto de imagens faciais obtidas incorretamente e algoritmos de aprendizado de máquina treinados nelas. O comissário da Comissão Federal de Comércio, Rohit Chopra, elogiou a nova tática de fiscalização como uma forma de forçar a empresa a violar bancos de dados para “aproveitar os frutos de seu engano”.

O pequeno campo da máquina que esquece a pesquisa luta com algumas das questões práticas e matemáticas levantadas por essas mudanças organizacionais. Os pesquisadores mostraram que podem fazer os algoritmos de aprendizado de máquina esquecerem sob certas condições, mas a tecnologia ainda não está pronta no horário nobre. “Como é comum no campo da juventude, há uma lacuna entre o que essa área aspira fazer e o que sabemos fazer agora”, diz Roth.

READ  Um vídeo da câmera do LAPD mostra ex-policiais perseguindo Pokémon durante o serviço

Uma abordagem promissora foi sugerida em 2019 Por pesquisadores da Universidade de Toronto e da Universidade de Wisconsin-Madison, envolve a separação dos dados de origem para um novo projeto de aprendizado de máquina em várias partes. Cada um é então processado individualmente, antes de os resultados serem combinados no modelo final de aprendizado de máquina. Se um ponto de dados precisar ser esquecido posteriormente, apenas uma pequena parte dos dados de entrada originais deve ser reprocessada. A Abordagem demonstrou funcionar em dados de compras online e um Uma coleção de mais de um milhão de fotos.

Ruth e colaboradores de Penn, Harvard e Stanford recentemente Ele demonstrou uma falha nessa abordagem, mostrando que o sistema de desaprendizagem travaria se as solicitações de exclusão feitas viessem em uma sequência específica, seja por acaso ou por um ator malicioso. Eles também mostraram como o problema pode ser mitigado.

Gautam Kamath, professor da Universidade de Waterloo que também trabalha com desaprendizagem, diz que o problema encontrado e corrigido pelo projeto é um exemplo das muitas questões em aberto sobre como fazer uma máquina aprender nada mais do que apenas curiosidade no laboratório . Era seu próprio grupo de pesquisa exploração Até que ponto a precisão de um sistema é reduzida ao remover o aprendizado de vários pontos de dados em uma linha.

Kamath também está interessado em encontrar maneiras de uma empresa provar – ou o regulador pode verificar – que o sistema realmente esqueceu o que não deveria aprender. “Parece um pouco exagerado, mas talvez eles eventualmente tenham auditores para esse tipo de coisa”, diz ele.

READ  Atualizações mais recentes do iPhone 15 Pro sobre vazamentos: poderoso chipset de 3 nm, USB-C e muito mais

Razões regulamentares para investigar a possibilidade de desaprendizagem do aprendizado de máquina provavelmente crescerão, à medida que o FTC e outros examinam mais de perto o poder dos algoritmos. Robin Benz, professor da Universidade de Oxford que estuda proteção de dados, diz que a ideia de que os indivíduos devem ter uma palavra a dizer sobre o destino e os frutos de seus dados cresceu nos últimos anos, tanto nos Estados Unidos quanto na Europa.

Será necessário um trabalho técnico criativo antes que as empresas de tecnologia possam realmente implementar o desaprendizado como uma forma de dar às pessoas mais controle sobre o destino computacional de seus dados. Até então, a tecnologia pode não mudar muito em termos de riscos de privacidade para a era da inteligência artificial.

privacidade diferencial, que é uma técnica inteligente para definir limites matemáticos sobre o que o sistema pode vazar de uma pessoa e fornece uma comparação útil. Essa tecnologia é superada pela Apple, Google e Microsoft, mas é usada relativamente raramente e os riscos à privacidade ainda são abundantes.

Embora possa ser muito útil, diz Baines, “em outros casos, é mais algo que uma empresa faz para mostrar que está inovando”. Ele suspeita que a descontinuação do aprendizado de máquina pode ser a mesma, o que é mais uma evidência de perspicácia técnica do que uma grande mudança na proteção de dados. Mesmo que as máquinas aprendam a esquecer, os usuários terão que se lembrar de ter cuidado com quem compartilham dados.

Esta história apareceu originalmente wired.com.