A Anthropic, startup americana de inteligência artificial (IA), fundada por ex-funcionários da OpenAI, apresentou recentemente o Claude, um modelo de linguagem capaz de escrever textos, gerar códigos e funcionar como um assistente de IA semelhante ao ChatGPT, da OpenAI. O modelo foi treinado usando uma técnica que a Anthropic chama de “IA Constitucional”, que se origina de preocupações centrais sobre a segurança futura da IA.
O Claude é um grande modelo de linguagem (LLM) que foi treinado em uma grande variedade de tarefas, desde a tradução automática até a geração de texto coerente e a programação de computadores. Como resultado, ele consegue responder a perguntas em linguagem natural, escrever artigos, e até mesmo programar soluções para problemas.
A Anthropic diz estar preocupada com a segurança futura da IA e reconhece que a tecnologia pode ser usada para fins maliciosos se não for tratada com cuidado. Para evitar esse resultado, eles adotaram uma abordagem inovadora para treinar o Claude chamada “IA Constitucional”.
A “IA Constitucional” é uma abordagem para o treinamento de IA que visa garantir que as máquinas sejam treinadas para serem compatíveis com os valores humanos e éticos. Isso significa que os modelos de IA treinados usando essa abordagem serão programados para considerar a segurança, a privacidade e outras preocupações importantes desde o início.
Segundo a Anthropic, a essa tecnologia de IA é necessária para garantir que a ferramenta seja usada de maneira responsável e para evitar que a tecnologia caia nas mãos erradas. Eles acreditam que o Claude é um exemplo de como a “IA Constitucional” pode ser usada para criar modelos de IA poderosos e seguros.
Assine nossa Newsletter para receber os melhores conteúdos do Itshow em sua caixa de entrada.