26.6 C
Loanda
Quinta-feira, Novembro 21, 2024

Microsoft e OpenAI Constroem IA Secreta: Investigadores Alertam Perigo Iminente

PARTILHAR
FONTE:Zdnet

A Microsoft e a OpenAI estão a gerar uma onda de incertezas com o desenvolvimento da sua nova Inteligência Artificial (IA) na nuvem. Esta situação tem levantado sobrancelhas entre os especialistas, que alertam para os grandes perigos que este comportamento pode acarretar. A principal crítica é que ambas as empresas estão a agir de forma inadequada ao ocultar ao mundo as suas estratégias de programação e ensino destas IAs.

O principal concorrente destas IAs é o StableLM, um modelo de código aberto que permite saber a todo o momento que tipo de dados são usados para ensinar a IA a comportar-se de determinada maneira. Este tipo de IA também é capaz de gerar áudios, o que é extremamente interessante.

O grande perigo da IA reside na sua natureza fechada e na falta de transparência sobre o que está a ser criado na nuvem. Este facto gera dúvidas e problemas em partes iguais. De acordo com especialistas das universidades de Oxford e Leeds, o risco não é algo que se possa ignorar. Se não se sabe com que informação a IA foi calibrada, existem grandes dúvidas sobre como ela pode funcionar e quais são os objetivos que se esperam alcançar.

Os modelos de linguagem totalmente fechados são considerados um dos principais perigos dentro das IAs. Os criadores de LLM que defendem os modelos abertos e de livre acesso estão a lutar com veemência para que a maioria dos modelos siga este caminho. A razão é simples: ninguém sabe realmente o que está por detrás de uma IA fechada, nem como ensinam a IA, nem quais são os seus parâmetros. Esta opacidade torna-as muito pouco confiáveis.

Emad Mostaque, fundador da Stability AI, defende que é necessário saber tudo o que está dentro destes modelos, pois são muito poderosos. Mostaque tem feito uma aposta gigantesca para defender as IAs de código aberto em detrimento das fechadas, como as da OpenAI e outras empresas. No entanto, as IAs de código fechado estão a tornar-se o padrão na indústria, apesar dos esforços das IAs de código aberto para ganhar espaço com um investimento muito mais modesto.

A falta de transparência sobre o que está a ser criado e como está a ser ensinado é vista como um grande perigo para a indústria da IA. Acredito que a transparência e a abertura devem ser a norma no desenvolvimento da IA, para garantir a sua segurança e confiabilidade. As empresas devem ser responsáveis e éticas na sua abordagem ao desenvolvimento da IA, e a ocultação de informações só serve para gerar desconfiança e medo. É essencial que haja um equilíbrio entre a inovação tecnológica e a responsabilidade ética.

Por Maistecnologia

spot_img
ÚLTIMAS NOTÍCIAS
spot_imgspot_img
ARTIGOS RELACIONADOS

Instagram ultrapassa YouTube como a principal plataforma de vídeos para portugueses:

Por Bruno Peralta -7 de Novembro de 2024 O consumo de vídeos nas redes sociais é hoje uma das atividades...

As receitas da Microsoft aumentam mais do que o esperado graças à Inteligência Artificial

Negócios de computação em nuvem e software Office da Microsoft Corp. impulsionaram um crescimento trimestral das receitas mais forte...

Meta inclui vozes célebres em chatbot de IA e apresenta óculos de realidade aumentada

A Meta, controladora do Facebook, WhatsApp e Instagram, anunciou nesta quarta-feira (25) a inclusão de vozes de celebridades de...

Intel recebe oferta multibilionária da Apollo, enquanto a Qualcomm planeia aquisição

A Apollo Global Management. ofereceu-se para fazer um investimento multibilionário na Intel, anunciou a Bloomberg, dando ao fabricante de...