Claude, un chatbot impulsado por IA, aprende a distinguir el bien del mal

por | Ago 27, 2023 | Inteligencia Artificial

Anthropic, liderado por ex investigadores de OpenAI, está planeando otra dirección de IA: desarrollar una IA que pueda determinar qué es bueno y qué es malo con una mínima intervención humana. Según el informe de Decrypt, el diseño de Claude incluye una “constitución” única, un conjunto de reglas inspiradas en la Declaración Universal de Derechos Humanos diseñadas para garantizar un comportamiento ético, así como una funcionalidad sólida y otros estándares “morales”. Reglas de Apple para desarrolladores de aplicaciones.

Sin embargo, el término “constitución” puede ser más metafórico que literal. Jared Kaplan, ex consultor de OpenAI y cofundador de Anthropic, dijo a Wired que la construcción de Cloud “puede interpretarse como un conjunto específico de parámetros de entrenamiento que cualquier entrenador puede usar para modelar su IA”.
Esto implica un conjunto diferente de consideraciones para el modelo, haciendo que su comportamiento sea más relevante para su construcción y desalentando comportamientos que se consideran problemáticos. Mejor que ChatGPT y Bard

El método de entrenamiento de Anthropic se describe en una investigación titulada “Constitutional AI: AI Feedback Harmless”, que explica un método para crear una IA “inofensiva” pero útil que puede entrenarse para mejorarse a sí misma. Identifique comportamientos inapropiados y ajuste su comportamiento sin comentarios humanos.
Detalles de las personas: “Con la inteligencia artificial constitucional y la capacitación en seguridad, puede confiar en Claude para representar su negocio y sus necesidades. Cloud ha sido entrenado para tratar amablemente con interlocutores desagradables o abusivos. “

En particular, Claude puede manejar más de 100.000 tokens de datos, mucho más que ChatGPT, Bard o cualquier otro modelo de lenguaje grande o chatbot de IA disponible actualmente.

En inteligencia artificial, un token generalmente se refiere a un dato que un modelo trata como una entidad separada, como una palabra o un carácter. Las habilidades simbólicas de Cloud le permiten manejar largas conversaciones y tareas complejas, lo que lo convierte en una presencia destacada en el campo de la inteligencia artificial. Para contextualizar, puedes simplemente referirte a todo el libro como un mensaje y saber qué hacer.

Hyperion
Author: Hyperion

Otras Noticias

Compartir

Redes Sociales

Google News

Noticias

Noticias Relacionadas

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Posibles Fuentes: Pagina de Fuentes