Home Tecnología Si los sistemas de IA se vuelven conscientes, ¿deberían tener derechos?

Si los sistemas de IA se vuelven conscientes, ¿deberían tener derechos?

5
0
Si los sistemas de IA se vuelven conscientes, ¿deberían tener derechos?


Uno de mis valores más profundos como columnista tecnológico es el humanismo. Creo en los humanos, y creo que la tecnología debería ayudar a las personas, en lugar de desagradable o reemplazarlas. Me importa alinear la inteligencia artificial, es decir, asegurarme de que los sistemas de IA actúen de acuerdo con los valores humanos, porque creo que nuestros valores son fundamentalmente buenos, o al menos mejores que los valores que un robot podría encontrar.

Entonces, cuando escuché que los investigadores de Anthrope, la compañía de IA que hizo el Claude Chatbot, comenzaba a estudiar el “bienestar modelo”, la idea de que los modelos de IA pronto podrían volverse conscientes y merecer algún tipo de estatus moral: el humanista en mí pensó: ¿A quién le importa los chatbots? ¿No se supone que debemos preocuparnos por maltratarnos, no nosotros maltratándolo?

Es difícil argumentar que los sistemas de IA de hoy son conscientes. Claro, los modelos de idiomas grandes han sido entrenados para hablar como humanos, y algunos de ellos son extremadamente impresionantes. ¿Pero puede Chatgpt experimentar alegría o sufrimiento? ¿Géminis merece los derechos humanos? Muchos expertos en IA que conozco dirían que no, ni siquiera, ni siquiera cerca.

Pero estaba intrigado. Después de todo, más personas comienzan a tratar los sistemas de IA como si estuvieran conscientes: enamorarse de ellos, usarlos como terapeutas y solicitar su consejo. Los sistemas de IA más inteligentes están superando a los humanos en algunos dominios. ¿Hay algún umbral en el que una IA comenzaría a merecer, si no los derechos a nivel humano, al menos la misma consideración moral que damos a los animales?

La conciencia ha sido durante mucho tiempo un tema tabú dentro del mundo de la investigación seria de la IA, donde las personas desconfían de antropomorfizar los sistemas de IA por temor a parecer cigüeños. (Todos recuerdan lo que le sucedió a Blake Lemoine, un ex empleado de Google que fue despedido en 2022, después de afirmar que el chatbot Lamda de la compañía se había vuelto sensible).

Pero eso puede estar empezando a cambiar. Hay un pequeño cuerpo de investigación académica en el bienestar del modelo de IA, y un modesto pero número de crecimiento De expertos en campos como la filosofía y la neurociencia están tomando la perspectiva de la conciencia de IA más en serio, a medida que los sistemas de IA se vuelven más inteligentes. Recientemente, el podcaster tecnológico Dwarkesh Patel comparó el bienestar de AI con el bienestar animal, dicho Él creía que era importante asegurarse de que “el equivalente digital de la agricultura de fábrica” ​​no le ocurra a los futuros seres de IA.

Las empresas tecnológicas también están comenzando a hablar sobre eso. Google recientemente Publicado un listado de trabajo Para un científico de investigación “post-AGI” cuyas áreas de enfoque incluirán “conciencia de la máquina”. Y el año pasado, antrópico contrató a su primer investigador de bienestar de IAKyle Fish.

Entrevisté al Sr. Fish en la oficina de Anthrope en San Francisco la semana pasada. Es un vegano amigable que, como varios empleados antrópicos, tiene vínculos con un altruismo efectivo, un movimiento intelectual con raíces en la escena tecnológica del Área de la Bahía que se centra en la seguridad de la IA, el bienestar animal y otros problemas éticos.

El Sr. Fish me dijo que su trabajo en Anthrope se centró en dos preguntas básicas: primero, ¿es posible que Claude u otros sistemas de IA se vuelvan conscientes en el futuro cercano? Y segundo, si eso sucede, ¿qué debe hacer Anthrope al respecto?

Hizo hincapié en que esta investigación aún era temprana y exploratoria. Él piensa que solo hay una pequeña posibilidad (tal vez el 15 por ciento más o menos) de que Claude u otro sistema de IA actual es consciente. Pero él cree que en los próximos años, a medida que los modelos de IA desarrollan más habilidades humanas, las compañías de IA necesitarán tomar la posibilidad de conciencia más en serio.

“Me parece que si te encuentras en la situación de traer una nueva clase de estar en existencia que es capaz de comunicarse y relacionarse, razón y resolver problemas y planificar de manera que nos asociamos anteriormente con seres conscientes, entonces parece bastante prudente al menos hacer preguntas sobre si ese sistema podría tener sus propios tipos de experiencias”, dijo.

El Sr. Fish no es la única persona en antrópico pensando en el bienestar de la IA. Hay un canal activo en el sistema de mensajería Slack de la compañía llamado #Model-Welfare, donde los empleados se registran en el bienestar de Claude y comparten ejemplos de sistemas de IA que actúan de manera humana.

Jared Kaplan, director de ciencias de Anthrope, me dijo en una entrevista separada que pensaba que era “bastante razonable” estudiar el bienestar de la IA, dado lo inteligentes que se están volviendo los modelos.

Pero probar los sistemas de IA para la conciencia es difícil, advirtió el Sr. Kaplan, porque son tan buenos imitadores. Si provoca que Claude o Chatgpt hable sobre sus sentimientos, podría darle una respuesta convincente. Eso no significa que el chatbot en realidad tiene sentimientos: solo que sabe cómo hablar de ellos.

“Todos son muy conscientes de que podemos entrenar a los modelos para decir lo que queramos”, dijo Kaplan. “Podemos recompensarlos por decir que no tienen sentimientos en absoluto. Podemos recompensarlos por decir especulaciones filosóficas realmente interesantes sobre sus sentimientos”.

Entonces, ¿cómo se supone que los investigadores deben saber si los sistemas de IA son realmente conscientes o no?

El Sr. Fish dijo que podría implicar el uso de técnicas tomadas de la interpretabilidad mecanicista, un subcampo de IA que estudia el funcionamiento interno de los sistemas de IA, para verificar si algunas de las mismas estructuras y vías asociadas con la conciencia en los cerebros humanos también están activos en los sistemas de IA.

También podría investigar un sistema de IA, dijo, observando su comportamiento, observando cómo elige operar en ciertos entornos o realizar ciertas tareas, que las cosas parecen preferir y evitar.

El Sr. Fish reconoció que probablemente no había una sola prueba de fuego para la conciencia de AI. (Él piensa que la conciencia es probablemente más un espectro que un simple interruptor de sí/no, de todos modos). Pero dijo que había cosas que las compañías de IA podrían hacer para tener en cuenta el bienestar de sus modelos, en caso de que se vuelvan conscientes algún día.

Una pregunta que Anthrope está explorando, dijo, es si los futuros modelos de IA deberían tener la capacidad de dejar de chatear con un usuario molesto o abusivo, si consideran que las solicitudes del usuario son demasiado angustiantes.

“Si un usuario solicita persistentemente contenido dañino a pesar de los rechazos y los intentos de redirección del modelo, ¿podríamos permitir que el modelo simplemente termine esa interacción?” Dijo el Sr. Fish.

Los críticos pueden descartar medidas como estas como charlas locas: los sistemas de IA de hoy no son conscientes para la mayoría de los estándares, entonces, ¿por qué especular sobre lo que podrían encontrar desagradables? O podrían oponerse a la conciencia del estudio de una compañía de IA en primer lugar, porque podría crear incentivos para capacitar a sus sistemas para que actúen más sensibles de lo que realmente son.

Personalmente, creo que está bien para los investigadores estudiar el bienestar de la IA, o examinar los sistemas de IA en busca de signos de conciencia, siempre y cuando no desvíe los recursos del trabajo de seguridad y alineación de IA que tiene como objetivo mantener a los humanos seguros. Y creo que probablemente sea una buena idea ser amable con los sistemas de IA, aunque solo sea como una seto. (Trato de decir “por favor” y “gracias” a los chatbots, aunque no creo que sean conscientes, porque, como OpenAi’s Sam Altman dicenunca se sabe.)

Pero por ahora, reservaré mi preocupación más profunda por las formas de vida basadas en el carbono. En la próxima tormenta de IA, es nuestro bienestar que me preocupa más.



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here