O que Elon Musk e Ilya Sutskever temiam sobre OpenAI está se tornando realidade

Homem de camiseta azul fica no meio da multidão

O CEO da OpenAI, Sam Altman, discutiu anteriormente seu desejo de alcançar o raciocínio de nível humano em IA.Imagens de Justin Sullivan/Getty

Como parte do caminho da OpenAI em direção à inteligência artificial geral (A.G.I), um termo para tecnologia que corresponde à inteligência dos humanos, a empresa está supostamente tentando permitir que a I.A. modelos para realizar raciocínio avançado. Esse trabalho está sendo realizado no âmbito de um projeto secreto de codinome ‘ Morango ,’ conforme relatado pela Reuters, que observou que o projeto era anteriormente conhecido como Q* ou Q Star. Embora seu nome possa ter mudado, o projeto não é exatamente novo. Pesquisadores e co-fundadores da OpenAI já alertaram contra a iniciativa, com preocupações de que ela teria um papel na breve destituição de Sam Altman como CEO da OpenAI em novembro.

Strawberry usa um método exclusivo de IA pós-treinamento. modelos, um processo que melhora seu desempenho após serem treinados em conjuntos de dados, segundo a Reuters, que citou documentos internos da OpenAI e uma pessoa familiarizada com o projeto. Com a ajuda de conjuntos de dados de pesquisa aprofundada, a empresa pretende criar modelos que demonstrem o raciocínio a nível humano. A OpenAI supostamente está investigando como o Strawberry pode permitir que os modelos sejam capazes de concluir tarefas por um longo período de tempo, pesquisar na web por conta própria e executar ações com base em suas descobertas, além de realizar o trabalho de engenheiros. A OpenAI não respondeu aos pedidos de comentários do Startracker.

Elon Musk e Ilya Sutskever levantaram preocupações sobre Q*

Altman, que já havia reiterou o desejo da OpenAI de criar modelos capazes de raciocinar , perdeu brevemente o controle de sua empresa no ano passado, quando seu conselho o demitiu por quatro dias. Pouco antes da demissão, vários funcionários da OpenAI tornaram-se preocupado com avanços apresentado pelo que era então conhecido como Q*, um projeto liderado por Ilya Sutskever, ex-cientista-chefe da OpenAI. O próprio Sutskever teria começado a se preocupar com a tecnologia do projeto, assim como os funcionários da OpenAI que trabalhavam na IA. segurança na época. Após sua reintegração, Altman referiu-se às notícias sobre Q* como um vazamento infeliz em entrevista ao Verge.

Elon Musk, outro cofundador da OpenAI , também deu o alarme sobre Q* no passado. O bilionário, que rompeu relações com a empresa em 2018, referiu-se ao projeto em uma ação movida contra OpenAI e Altman que já foi arquivada. Ao discutir a estreita parceria da OpenAI com a Microsoft (MSFT), o processo de Musk alegou que os termos do acordo determinam que a Microsoft só tem direitos sobre os recursos pré-A.G.I. tecnologia e que cabe ao conselho da OpenAI determinar quando a empresa alcançou A.G.I.

Musk argumentou que o modelo GPT-4 da OpenAI constitui A.G.I, que ele acredita representar uma grave ameaça à humanidade, de acordo com o processo. Os documentos judiciais declararam que a OpenAI está atualmente desenvolvendo um modelo conhecido como Q* que tem uma reivindicação ainda mais forte de A.G.I.

Reuniões internas recentes sugeriram que a OpenAI está progredindo rapidamente em direção ao tipo de raciocínio de nível humano em que a Strawberry está trabalhando. Em uma reunião geral da OpenAI realizada no início deste mês, a empresa revelou um sistema de cinco níveis para acompanhar seu progresso em direção à A.G.I., conforme relatado pela Bloomberg. Embora a empresa tenha afirmado que está atualmente no primeiro nível, conhecido como chatbots, revelou que quase atingiu o segundo nível de raciocinadores, que envolve tecnologia que pode exibir a resolução de problemas em nível humano. As etapas subsequentes consistem em A.I. sistemas que atuam como agentes que podem realizar ações, inovadores que auxiliam na invenção e organizações que fazem o trabalho de uma organização.