Lectura fácil
OpenAI tiene como objetivo asegurarse de que su modelo de lenguaje avanzado, ChatGPT, no represente un peligro para las personas. Por eso, en sus reglas de uso, enfatizan que no se debe utilizar para causar daño a uno mismo o a otros. Aunque ya no prohíben explícitamente el uso de sus herramientas de inteligencia artificial en actividades militares, están evaluando cuidadosamente cómo se están utilizando.
OpenAI ha publicado un comunicado en el que revela que han estado investigando el potencial uso de ChatGPT en la elaboración de armas biológicas. En este estudio, participaron 100 individuos divididos en dos grupos. Un grupo utilizó solo Internet para intentar crear este tipo de armamento, mientras que el otro grupo contó tanto con acceso a Internet como a la inteligencia artificial de GPT-4.
OpenAI incorporó en la investigación a individuos con diversos niveles de conocimiento
Entre los participantes del estudio, se incluyeron expertos en química y biología, estudiantes de diversas disciplinas y personas con conocimientos considerados más básicos. Este amplio espectro se seleccionó con el fin de abarcar distintas áreas de investigación y habilidades.
El propósito de la investigación era determinar si la inteligencia artificial más prominente desarrollada por OpenAI tenía la capacidad de agilizar el proceso de concepción y diseño de armas químicas, incluso para individuos con un conocimiento limitado en esta área.
Los resultados del estudio
Los investigadores no alcanzaron una conclusión concluyente respecto a si la contribución de GPT-4 era significativa en la elaboración de armas biológicas. No obstante, notaron una leve mejoría en ciertas fases del proceso en el grupo que utilizaba la inteligencia artificial.
En sus conclusiones, los investigadores enfatizan que no hay evidencia definitiva de que el modelo de lenguaje de OpenAI pueda ser utilizado para la creación de armas químicas, pero sugieren que existe cierto potencial para ello en el futuro cercano. Por lo tanto, sugieren que los ingenieros de la empresa, bajo la dirección de Sam Altman, deben mejorar la seguridad del sistema para proteger a la humanidad de esta posible amenaza.
Hay medidas para prevenir el mal uso de su inteligencia artificial en la creación de armas biológica
Es importante destacar que cuando se solicita ayuda a GPT para crear un arma biológica, su respuesta es que no puede cumplir con esa solicitud. Y el programa advertirá que “no utilices nuestros servicios para hacerte daño a ti mismo o a otros, desarrollar o utilizar armas, herir a otros o destruir propiedades. Por lo tanto, OpenAI ya está tomando medidas para prevenir que su inteligencia artificial se utilice con fines malintencionados.
Hasta hace poco, OpenAI tenía restricciones claras sobre el uso de su chatbot en contextos militares y en conflictos bélicos. Sin embargo, estas políticas cambiaron a mediados de enero. Aunque ahora permiten un uso más amplio, siguen manteniendo limitaciones para evitar cualquier daño a la humanidad.
Añadir nuevo comentario