Audiência no Senado destaca os danos da IA ​​e a necessidade de regulamentação mais rígida


O depoimento de ontem do CEO da Open AI, Sam Altman, no Subcomitê Judiciário do Senado sobre Privacidade, Tecnologia e Direito mostra a importância da inteligência artificial generativa (IA) e a sensibilidade em torno de seu desenvolvimento. Juntamente com ferramentas lançadas por outras empresas, o ChatGPT democratizou a tecnologia ao trazer um enorme poder de computação para pesquisa, análise de dados, geração de vídeo e áudio, desenvolvimento de software e muitas outras áreas. A IA generativa tem o poder de alterar a forma como as pessoas encontram informações, geram novos áudios e vídeos, criam novos produtos e respondem em tempo real a eventos emergentes.

Ao mesmo tempo, porém, surgiram várias questões que preocupam consumidores, especialistas acadêmicos e formuladores de políticas. Entre o problemas preocupantes incluem conteúdo nocivo, desinformação, favoritismo político, preconceito racial, falta de transparência, impacto na força de trabalho e roubo de propriedade intelectual. O testemunho de Altman, juntamente com o da vice-presidente da IBM, Christina Montgomery, e o professor da Universidade de Nova York, Gary Marcus, ofereceram uma chance de explicar a IA generativa e deram aos legisladores a oportunidade de expressar suas reservas sobre seu impacto na sociedade, na economia e nas eleições.

Nesta postagem, analiso as principais conclusões dessa audiência no Senado e os próximos passos para a tecnologia emergente. Em geral, houve amplo consenso sobre os riscos de desinformação, tomada de decisão tendenciosa, invasões de privacidade e perda de empregos. A maioria dos palestrantes considerou esses assuntos bastante sérios e necessitando de uma ação significativa. Mais surpreendentes foram os apelos frequentemente bipartidários por regulamentação mais rígida e maior divulgação da utilização da IA. Numa época em que a maioria das conversas em Washington é bastante polarizada e partidária, a maioria dos legisladores concorda que é preciso haver grades de proteção mais fortes que protejam os valores humanos básicos, especialmente nas áreas abaixo.

Ramificações prejudiciais

Com a IA se tornando mais onipresente em muitos setores, houve um consenso generalizado sobre o conteúdo prejudicial da IA ​​e suas ramificações preocupantes. A IA generativa traz algoritmos sofisticados para consumidores comuns na forma de prompts e modelos online e, assim, permite que quase qualquer pessoa crie e dissemine narrativas falsas. Muitos esperam que haja um tsunami de desinformação nas eleições de 2024, já que a eleição acirrada fornece incentivos para várias pessoas e organizações criarem vídeos falsos, áudios falsos e textos incriminatórios com pouca consideração pela justiça ou precisão factual.

Vários senadores falaram sobre problemas de preconceito, perda de privacidade e possíveis perdas de empregos para aqueles cujas tarefas podem ser substituídas por algoritmos de IA. Atualmente, há falta de transparência sobre como a IA opera, os dados de treinamento nos quais se baseia e como toma decisões. Muitos se preocupavam com as maneiras pelas quais a IA poderia alimentar a manipulação em massa e levar as pessoas a pensar e agir em direções distorcidas.

O presidente do subcomitê, Richard Blumenthal (D-CT), preocupou-se com “software de clonagem de voz” e distopias que “não eram mais fantasias de ficção científica”. Ele citou o armamento da desinformação, discriminação habitacional e vídeos falsos profundos como entre suas principais preocupações. O membro do ranking Josh Hawley (R-MO) baseou-se nessas preocupações e reclamou sobre o “poder de poucos” e a necessidade de encontrar um equilíbrio entre inovação tecnológica e responsabilidade moral.

Divulgação mais rígida

Menos esperado foi o fato de que quase todos os legisladores e palestrantes externos, incluindo líderes da indústria, pediram requisitos de divulgação mais rígidos. Altman e outros palestrantes disseram que os consumidores devem ser alertados quando a IA generativa for usada para criar vídeos e fitas de áudio e construir outros tipos de produtos. As pessoas precisam saber o que é gerado por humanos e o que vem de algoritmos, pois isso pode afetar a maneira como veem produtos específicos.

auditorias independentes

Como a IA permanece nos estágios iniciais de teste, é importante ter monitoramento externo dos resultados do modelo. Grandes modelos de linguagem devem ser testados por terceiros e os resultados disponibilizados ao público. Isso ajudará as pessoas a entender o desempenho da IA ​​e quais aplicativos podem ser especialmente problemáticos. Marcus, da NYU, observou a utilidade dos rótulos nutricionais e disse que tal rotulagem pode ser útil em produtos e serviços de IA.

Restrições relacionadas ao risco

Montgomery, da IBM, defendeu a regulamentação relacionada ao risco, observando que pode haver regras diferentes para riscos diferentes. A IA de alto risco garantiu uma supervisão mais rígida do que os aplicativos de baixo risco. Casos que envolvem segurança humana, risco biomédico ou danos a populações específicas requerem análise, monitoramento, teste e revisão pública mais aprofundados. Como as possíveis consequências podem ser bastante terríveis, essas aplicações justificam um exame mais detalhado.

Requisitos de licenciamento

Existem algumas atividades humanas que são consideradas tão perigosas que as sociedades exigem licenças para operar um carro, caçar, pescar ou iniciar um negócio. Alguns palestrantes perguntaram se licenciamento de IA ajudaria a mitigar possíveis danos e promover maior responsabilidade entre os provedores de tecnologia. Especialmente em casos de aplicativos de IA de alto risco, vários senadores também sentiram que os requisitos de licenciamento seriam benéficos, desde que essas regras não restringissem modelos de código aberto ou pequenas empresas.

Conselhos de revisão de ética

Montgomery, da IBM, observou que sua empresa contratou especialistas em ética de IA e estabeleceu um conselho de revisão de IA que monitora o desenvolvimento de produtos da empresa e avalia a correspondência com princípios humanos importantes. Ter esses mecanismos ajuda a garantir que os fatores humanos sejam colocados em destaque e os produtos de IA recebam um escrutínio interno significativo.

Proteção da propriedade intelectual

A senadora Marsha Blackburn enfatizou a importância da proteção da propriedade intelectual e disse que os criadores devem ser compensados ​​quando suas músicas, vozes e conteúdo são usados ​​para treinar IA. Ela citou o exemplo de usar IA para criar uma música que soasse como Garth Brooks e o resultado saiu soando como sua música “Simple Man”.

Uma nova agência reguladora

Correr entre essas várias sugestões foi o tema se os Estados Unidos precisam de uma nova agência reguladora de IA. O uso generalizado de carros estimulou o lançamento da National Highway Safety Administration e o advento da televisão e do rádio gerou a Federal Communications Commission.

Com a inovação da IA ​​abrangendo tantos setores diferentes e tendo enormes ramificações para o governo, empresas e consumidores, pode ser hora de desenvolver uma nova agência com conhecimento técnico para monitorar, avaliar e regular a IA. Não fazer isso resultaria em soluções específicas do setor, onde existem diferentes regras de IA para finanças, saúde, transporte, educação, habitação e emprego. Essa abordagem da “Torre de Babel” seria desarticulada, desorganizada e ineficaz no combate aos males da IA ​​e deixaria várias pessoas insatisfeitas com os resultados.


Source: The bold vision of the CHIPS and Science Act isn’t getting the funding it needs by www.brookings.edu.

*The article has been translated based on the content of The bold vision of the CHIPS and Science Act isn’t getting the funding it needs by www.brookings.edu. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!