A Microsoft e a OpenAI estão a gerar uma onda de incertezas com o desenvolvimento da sua nova Inteligência Artificial (IA) na nuvem. Esta situação tem levantado sobrancelhas entre os especialistas, que alertam para os grandes perigos que este comportamento pode acarretar. A principal crítica é que ambas as empresas estão a agir de forma inadequada ao ocultar ao mundo as suas estratégias de programação e ensino destas IAs.
O principal concorrente destas IAs é o StableLM, um modelo de código aberto que permite saber a todo o momento que tipo de dados são usados para ensinar a IA a comportar-se de determinada maneira. Este tipo de IA também é capaz de gerar áudios, o que é extremamente interessante.
O grande perigo da IA reside na sua natureza fechada e na falta de transparência sobre o que está a ser criado na nuvem. Este facto gera dúvidas e problemas em partes iguais. De acordo com especialistas das universidades de Oxford e Leeds, o risco não é algo que se possa ignorar. Se não se sabe com que informação a IA foi calibrada, existem grandes dúvidas sobre como ela pode funcionar e quais são os objetivos que se esperam alcançar.
Os modelos de linguagem totalmente fechados são considerados um dos principais perigos dentro das IAs. Os criadores de LLM que defendem os modelos abertos e de livre acesso estão a lutar com veemência para que a maioria dos modelos siga este caminho. A razão é simples: ninguém sabe realmente o que está por detrás de uma IA fechada, nem como ensinam a IA, nem quais são os seus parâmetros. Esta opacidade torna-as muito pouco confiáveis.
Emad Mostaque, fundador da Stability AI, defende que é necessário saber tudo o que está dentro destes modelos, pois são muito poderosos. Mostaque tem feito uma aposta gigantesca para defender as IAs de código aberto em detrimento das fechadas, como as da OpenAI e outras empresas. No entanto, as IAs de código fechado estão a tornar-se o padrão na indústria, apesar dos esforços das IAs de código aberto para ganhar espaço com um investimento muito mais modesto.
A falta de transparência sobre o que está a ser criado e como está a ser ensinado é vista como um grande perigo para a indústria da IA. Acredito que a transparência e a abertura devem ser a norma no desenvolvimento da IA, para garantir a sua segurança e confiabilidade. As empresas devem ser responsáveis e éticas na sua abordagem ao desenvolvimento da IA, e a ocultação de informações só serve para gerar desconfiança e medo. É essencial que haja um equilíbrio entre a inovação tecnológica e a responsabilidade ética.
Por Maistecnologia