![imagem1.png](https://static-lib.s3.amazonaws.com/cms/image1_78ab68323a.png)
OpenAI publicou uma nova postagem no blog comprometendo-se a desenvolver inteligência artificial (IA) que seja segura e amplamente benéfica.
ChatGPT, alimentado pelo mais recente modelo da OpenAI, GPT-4, pode melhorar a produtividade, potenciar a criatividade e fornecer experiências de aprendizagem personalizadas.
No entanto, a OpenAI reconhece que as ferramentas de IA têm riscos inerentes que devem ser abordados por meio de medidas de segurança e implementação responsável.
Aqui está o que a empresa está fazendo para mitigar esses riscos.
Garantir a segurança nos sistemas de IA
A OpenAI realiza testes minuciosos, procura orientação externa de especialistas e aperfeiçoa seus modelos de IA com o feedback humano antes de lançar novos sistemas.
O lançamento do GPT-4, por exemplo, foi precedido por mais de seis meses de testes para garantir sua segurança e alinhamento com as necessidades do usuário.
A OpenAI acredita que os sistemas de IA robustos devem ser submetidos a avaliações rigorosas de segurança e apoia a necessidade de regulação.
Aprender através de Experiências do Mundo Real
A utilização real é um componente essencial no desenvolvimento de sistemas de IA seguros. Ao lançar cuidadosamente novos modelos para uma base de usuários em expansão gradual, a OpenAI pode fazer melhorias que solucionem problemas imprevistos.
Ao oferecer modelos de IA através da sua API e website, a OpenAI pode monitorizar o uso indevido, tomar as medidas apropriadas e desenvolver políticas nuanciadas para equilibrar o risco.
Proteger Crianças e Respeitar a Privacidade
OpenAI dá prioridade à proteção das crianças, exigindo a verificação da idade e proibindo o uso de sua tecnologia para gerar conteúdo prejudicial.
Privacidade é outro aspecto essencial do trabalho da OpenAI. A organização utiliza dados para tornar seus modelos mais úteis, ao mesmo tempo em que protege os usuários.
Além disso, a OpenAI remove informações pessoais dos conjuntos de dados de treinamento e ajusta os modelos para rejeitar solicitações de informações pessoais.
A OpenAI irá responder a pedidos de eliminação de dados pessoais dos seus sistemas.
Melhorando a Precisão dos Fatos
A precisão factual é uma preocupação significativa para a OpenAI. O GPT-4 tem 40% mais probabilidade de produzir conteúdo preciso do que seu antecessor, o GPT-3.5.
A organização tem como objetivo educar os utilizadores sobre as limitações das ferramentas de IA e a possibilidade de imprecisões.
Pesquisa Contínua e Envolvimento
OpenAI acredita em dedicar tempo e recursos para pesquisar técnicas eficazes de mitigação e alinhamento.
No entanto, isso não é algo que possa ser feito sozinho. Abordar questões de segurança requer um amplo debate, experimentação e envolvimento entre as partes interessadas.
A OpenAI mantém o compromisso de promover a colaboração e o diálogo aberto para criar um ecossistema de IA seguro.
Críticas sobre Riscos Existenciais
Apesar do compromisso da OpenAI em garantir a segurança de seus sistemas de IA e seus amplos benefícios, a postagem em seu blog gerou críticas nas redes sociais.
Utilizadores do Twitter mostraram-se desapontados, afirmando que a OpenAI não aborda os riscos existenciais associados ao desenvolvimento da IA.
Um usuário do Twitter expressou sua desapontamento, acusando a OpenAI de trair sua missão original e focar em uma comercialização imprudente.
O utilizador sugere que a abordagem da OpenAI à segurança é superficial e mais preocupada em satisfazer os críticos do que em abordar riscos existenciais genuínos.
Isto é extremamente dececionante, vazio, mera maquiagem de relações públicas.
Nem sequer mencionam os riscos existenciais da IA que são a principal preocupação de muitos cidadãos, tecnólogos, pesquisadores de IA e líderes da indústria de IA, incluindo o seu próprio CEO @sama. A @OpenAI está traindo seu...
— Geoffrey Miller (@primalpoly) 5 de abril de 2023
Outro utilizador expressou insatisfação com o anúncio, argumentando que ele ignora problemas reais e permanece vago. O utilizador também destaca que o relatório ignora questões éticas críticas e riscos relacionados à autoconsciência da IA, implicando que a abordagem da OpenAI em relação a questões de segurança é inadequada.
Como fã do GPT-4, estou desapontado com o seu artigo.
Ele minimiza problemas reais, fica vago e ignora questões éticas cruciais e riscos relacionados à autoconsciência da IA.
Eu aprecio a inovação, mas essa não é a abordagem correta para lidar com questões de segurança.
— FrankyLabs (@FrankyLabs) 5 de abril de 2023
A crítica sublinha as preocupações mais gerais e o debate em curso sobre os riscos existenciais colocados pelo desenvolvimento da IA.
Embora o anúncio da OpenAI saliente seu compromisso com a segurança, privacidade e precisão, é essencial reconhecer a necessidade de uma discussão adicional para abordar preocupações mais significativas.