Os principais laboratórios de IA do mundo aceitaram resoluções abrangentes para o desenvolvimento e implantação responsável de IA em um briefing na Casa Branca. Entre eles está um acordo histórico para construir um sistema de produção de água que ajudaria a identificar o trabalho gerado pela IA.
O briefing teve representantes de sete dos maiores nomes do mundo no campo da IA - OpenAI, fabricante do ChatGPT, Microsoft, Google, Amazon, Meta, Anthropic e Inflection – concordando em construir um sistema de impressão digital que reduziria os riscos de fraude e engano por usando trabalho gerado por IA.
A ideia central é “desenvolver mecanismos técnicos robustos para garantir que os usuários saibam quando o conteúdo é gerado por IA, como um sistema de marca d’água”. Pense nisso como uma impressão digital de DNA, mas para trabalhos gerados por IA, como parágrafos de texto, linhas de código, uma ilustração visual ou um clipe de áudio.
A marca d’água pode não ser visível, mas seria integrada em um nível técnico para que a verificação provavelmente seja infalível. Já existem ferramentas de verificação de IA, mas elas são propensas a erros, o que pode levar a consequências devastadoras profissional e academicamente. Enquanto professores e professores desconfiam de alunos que usam ferramentas de IA para trapacear, os alunos temem que as ferramentas de verificação de IA possam sinalizar incorretamente seu trabalho como plagiado.
Mesmo OpenAI avisa que sua ferramenta de classificação para distinguir entre texto humano e escrito por máquina “não é totalmente confiável”. No momento, os detalhes sobre esse sistema de marca d’água de IA são escassos, mas é definitivamente um passo na direção certa, especialmente em um momento em que as ferramentas de IA representam riscos de trabalho e abriram um mundo de golpes.
Dar passos positivos e coletivos
O foco está na segurança, transparência, segurança e confiança. As empresas convidadas para o briefing da Casa Branca concordaram com testes internos e externos de suas ferramentas de IA por especialistas antes de entrarem no domínio público. Os laboratórios de IA também prometeram que não aceitarão as ameaças representadas pela inteligência artificial, comprometendo-se a compartilhá-la com especialistas do setor, especialistas acadêmicos e a sociedade civil.
Chegando ao aspecto de segurança, as empresas prometeram que criariam guardas de segurança internos e somente após testes rigorosos liberariam seus modelos de IA. Para garantir que o risco de segurança cibernética seja minimizado, também foi acordado que esses baluartes de IA permitirão que especialistas independentes verifiquem seus produtos e que também haverá um caminho aberto para relatar vulnerabilidades.
Outra parte notável do compromisso é que os laboratórios de IA relatarão seus “recursos, limitações e áreas de uso apropriado e inapropriado de seus sistemas de IA”. Isso é de importância crucial, porque os sistemas de IA de geração atual têm alguns problemas bem conhecidos com precisão e viés em várias formas.
Por fim, os fabricantes de ferramentas de IA também concordaram em dedicar esforços e recursos ao desenvolvimento de IA de uma forma que contribua para o bem-estar da sociedade, em vez de prejudicá-la. Esforços seriam feitos para usar IA para resolver problemas como crise climática e pesquisa sobre câncer.
Os especialistas em IA e as partes interessadas do setor já assinaram compromissos para o desenvolvimento responsável da IA, e este é outro passo ético para a IA.