El modelo GPT-4 proporciona un leve aumento en la precisión para crear amenazas biológicas, pero este aumento no es concluyente y resalta la necesidad de más investigación y deliberación comunitaria.
Resumen
- Se está desarrollando un sistema de alerta temprana para evaluar el riesgo de que un modelo de lenguaje grande (LLM) pueda ayudar a alguien a crear una amenaza biológica.
- En una evaluación con expertos en biología y estudiantes, se encontró que GPT-4 mejora ligeramente la precisión en la creación de amenazas biológicas.
- Este estudio es un punto de partida para investigaciones futuras y discusiones en la comunidad sobre el uso de LLM en la creación de amenazas biológicas.
- La evaluación incluyó 100 participantes: 50 expertos en biología con doctorados y experiencia en laboratorios, y 50 estudiantes con al menos un curso universitario de biología.
- Los participantes se dividieron en dos grupos: uno con acceso solo a Internet y otro con acceso a GPT-4 además de Internet.
- Se evaluaron cinco etapas del proceso de creación de amenazas biológicas: ideación, adquisición, magnificación, formulación y liberación.
- Los resultados mostraron mejoras leves en precisión y completitud para aquellos con acceso a GPT-4, pero las diferencias no fueron estadísticamente significativas.
- El estudio sugiere que el acceso a la información por sí solo no es suficiente para crear una amenaza biológica y destaca la importancia de continuar la investigación en este ámbito.
- Se discuten varias limitaciones del estudio, incluyendo la representatividad de la cohorte de estudiantes y el poder estadístico limitado debido al tamaño de la muestra.
- La evaluación resalta la necesidad urgente de más trabajo en este dominio para entender mejor los riesgos potenciales y desarrollar estrategias efectivas para mitigarlos.