OpenAI, Criadores Do ChatGPT, Comprometem-se a Desenvolver Sistemas de IA Seguros

imagem1.png

OpenAI publicou uma nova postagem no blog comprometendo-se a desenvolver inteligência artificial (IA) que seja segura e amplamente benéfica.

ChatGPT, alimentado pelo mais recente modelo da OpenAI, GPT-4, pode melhorar a produtividade, potenciar a criatividade e fornecer experiências de aprendizagem personalizadas.

No entanto, a OpenAI reconhece que as ferramentas de IA têm riscos inerentes que devem ser abordados por meio de medidas de segurança e implementação responsável.

Aqui está o que a empresa está fazendo para mitigar esses riscos.

Garantir a segurança nos sistemas de IA

A OpenAI realiza testes minuciosos, procura orientação externa de especialistas e aperfeiçoa seus modelos de IA com o feedback humano antes de lançar novos sistemas.

O lançamento do GPT-4, por exemplo, foi precedido por mais de seis meses de testes para garantir sua segurança e alinhamento com as necessidades do usuário.

A OpenAI acredita que os sistemas de IA robustos devem ser submetidos a avaliações rigorosas de segurança e apoia a necessidade de regulação.

Aprender através de Experiências do Mundo Real

A utilização real é um componente essencial no desenvolvimento de sistemas de IA seguros. Ao lançar cuidadosamente novos modelos para uma base de usuários em expansão gradual, a OpenAI pode fazer melhorias que solucionem problemas imprevistos.

Ao oferecer modelos de IA através da sua API e website, a OpenAI pode monitorizar o uso indevido, tomar as medidas apropriadas e desenvolver políticas nuanciadas para equilibrar o risco.

Proteger Crianças e Respeitar a Privacidade

OpenAI dá prioridade à proteção das crianças, exigindo a verificação da idade e proibindo o uso de sua tecnologia para gerar conteúdo prejudicial.

Privacidade é outro aspecto essencial do trabalho da OpenAI. A organização utiliza dados para tornar seus modelos mais úteis, ao mesmo tempo em que protege os usuários.

Além disso, a OpenAI remove informações pessoais dos conjuntos de dados de treinamento e ajusta os modelos para rejeitar solicitações de informações pessoais.

A OpenAI irá responder a pedidos de eliminação de dados pessoais dos seus sistemas.

Melhorando a Precisão dos Fatos

A precisão factual é uma preocupação significativa para a OpenAI. O GPT-4 tem 40% mais probabilidade de produzir conteúdo preciso do que seu antecessor, o GPT-3.5.

A organização tem como objetivo educar os utilizadores sobre as limitações das ferramentas de IA e a possibilidade de imprecisões.

Pesquisa Contínua e Envolvimento

OpenAI acredita em dedicar tempo e recursos para pesquisar técnicas eficazes de mitigação e alinhamento.

No entanto, isso não é algo que possa ser feito sozinho. Abordar questões de segurança requer um amplo debate, experimentação e envolvimento entre as partes interessadas.

A OpenAI mantém o compromisso de promover a colaboração e o diálogo aberto para criar um ecossistema de IA seguro.

Críticas sobre Riscos Existenciais

Apesar do compromisso da OpenAI em garantir a segurança de seus sistemas de IA e seus amplos benefícios, a postagem em seu blog gerou críticas nas redes sociais.

Utilizadores do Twitter mostraram-se desapontados, afirmando que a OpenAI não aborda os riscos existenciais associados ao desenvolvimento da IA.

Um usuário do Twitter expressou sua desapontamento, acusando a OpenAI de trair sua missão original e focar em uma comercialização imprudente.

O utilizador sugere que a abordagem da OpenAI à segurança é superficial e mais preocupada em satisfazer os críticos do que em abordar riscos existenciais genuínos.

Isto é extremamente dececionante, vazio, mera maquiagem de relações públicas.

Nem sequer mencionam os riscos existenciais da IA que são a principal preocupação de muitos cidadãos, tecnólogos, pesquisadores de IA e líderes da indústria de IA, incluindo o seu próprio CEO @sama. A @OpenAI está traindo seu...

— Geoffrey Miller (@primalpoly) 5 de abril de 2023

Outro utilizador expressou insatisfação com o anúncio, argumentando que ele ignora problemas reais e permanece vago. O utilizador também destaca que o relatório ignora questões éticas críticas e riscos relacionados à autoconsciência da IA, implicando que a abordagem da OpenAI em relação a questões de segurança é inadequada.

Como fã do GPT-4, estou desapontado com o seu artigo.

Ele minimiza problemas reais, fica vago e ignora questões éticas cruciais e riscos relacionados à autoconsciência da IA.

Eu aprecio a inovação, mas essa não é a abordagem correta para lidar com questões de segurança.

— FrankyLabs (@FrankyLabs) 5 de abril de 2023

A crítica sublinha as preocupações mais gerais e o debate em curso sobre os riscos existenciais colocados pelo desenvolvimento da IA.

Embora o anúncio da OpenAI saliente seu compromisso com a segurança, privacidade e precisão, é essencial reconhecer a necessidade de uma discussão adicional para abordar preocupações mais significativas.

Artigos Relacionados

Ver Mais >>

Desbloqueie o poder da IA com HIX.AI!