El impacto de ChatGPT en la fuerza laboral federal
Las agencias federales buscan constantemente soluciones innovadoras y seguras para mejorar sus operaciones y servir mejor a sus electores. Una de las tecnologías que más ha llamado su atención en la última década es la inteligencia artificial.
Con el reciente impulso de Large Language Model y Transformer AI, la fuerza laboral federal ha quedado cautivada por el potencial de la IA y cómo puede empoderarlos para llevar a cabo de manera efectiva las misiones de la agencia.
Una herramienta LLM popular es ChatGPT. Los legisladores ya están utilizando ChatGPT para ayudar a escribir discursos y las agencias han comenzado a investigar los innumerables beneficios de implementar la tecnología dentro de los procesos existentes, incluida la asistencia a los empleados en la comunicación, la optimización de los flujos de trabajo y el aumento del acceso de los empleados a la información.
En medio del entusiasmo, existe la preocupación de que ChatGPT y otras herramientas LLM puedan eliminar puestos de trabajo, proporcionar información inexacta y perpetuar el sesgo. Si bien algunos temores pueden ser infundados, es crucial que las agencias federales consideren todos los impactos potenciales que una implementación a gran escala de ChatGPT puede tener en la fuerza laboral y las partes interesadas de la agencia.
Para hacerlo, se requiere una comprensión profunda de dónde ChatGPT puede ayudar a servir a la fuerza laboral federal y, lo que es más importante, dónde no puede.
Tradicionalmente, la IA ayuda a los empleados gubernamentales con los procesos internos ayudando en los mostradores de servicio, agilizando las decisiones, automatizando tareas repetitivas y más. Si bien ChatGPT puede cumplir esas funciones tradicionales, su modelo de lenguaje amplio también permite una nueva dimensión de capacidades.
La tecnología puede brindar a la fuerza laboral federal oportunidades mejoradas de capacitación y desarrollo profesional mediante la creación de cursos en línea, tutoriales y otros recursos educativos a los que los empleados federales pueden acceder en cualquier momento. Alternativamente, podría mejorar el acceso de los empleados a información sobre políticas, procedimientos, regulaciones y datos y estadísticas relevantes para el trabajo.
ChatGPT también tiene el potencial de ayudar a resolver desafíos gubernamentales bien documentados. Por ejemplo, puede ayudar a agilizar el complejo proceso de adquisición federal al redactar un contrato gubernamental que los empleados puedan editar en lugar de crear desde cero. Las aplicaciones potenciales no pasan desapercibidas para las agencias, ya que el Departamento de Defensa ya está en el proceso de crear una solución similar de redacción de contratos impulsada por IA conocida como “AcqBot” para acelerar los flujos de trabajo.
Es más, las aplicaciones de ChatGPT se pueden adaptar fácilmente a las necesidades específicas de la agencia. El IRS podría usar ChatGPT para automatizar el proceso de categorizar los formularios de impuestos entrantes y enviarlos al departamento apropiado para su procesamiento, mientras que el Departamento de Defensa podría usarlo para generar automáticamente informes sobre el mantenimiento de equipos, agilizando la programación de reparaciones.
Las aplicaciones de ChatGPT están limitadas únicamente por la imaginación, la creatividad y el nivel de impacto deseado. Sin embargo, no todos los efectos son positivos y depender demasiado de ChatGPT puede generar un riesgo significativo para una organización sin las barreras de seguridad adecuadas. Por ejemplo, los miembros certificados de la comunidad de piratería ética han demostrado formas de hacer jailbreak a numerosas herramientas LLM y basadas en Transformer, como ChatGPT, y engañarlas para que inserten sesgos en las respuestas, violen políticas éticas, creen código para ataques distribuidos de denegación de servicio y más.
ChatGPT también puede ocasionalmente proporcionar respuestas o extraer información de fuentes que no existen para brindar una respuesta rápida. Esto sucede porque ChatGPT utiliza conjeturas basadas en probabilidades basadas en la información disponible para generar sus respuestas.
Por lo tanto, si bien los datos originales que extrae pueden ser precisos, comprimir y ajustar los datos para responder a la pregunta única puede generar la afirmación más probable en lugar de una precisa, lo que a veces da como resultado fuentes totalmente inventadas. En caso de error, no reconocerá su error pero reafirmará su respuesta. Esto puede dar lugar a posibles malas interpretaciones por parte de los empleados federales que confían en la herramienta para obtener información sobre beneficios o errores de formato en los contratos redactados con la herramienta.
Además, si un empleado, sin saberlo, utiliza la información para tomar una decisión que resulta en una respuesta negativa, puede sufrir una pérdida de tiempo, recursos e incluso reputación. Por lo tanto, es esencial garantizar que ChatGPT se pruebe y supervise adecuadamente, y que los empleados estén capacitados para minimizar el riesgo de errores antes de utilizar el sistema.
Las agencias gubernamentales son responsables de proteger la seguridad y el bienestar de todos los ciudadanos, incluida la fuerza laboral federal. Muchos temen que el uso de ChatGPT para ayudar a la fuerza laboral lleve a que humanos reales pierdan sus trabajos o perpetúen accidentalmente prejuicios.
Estos temores no son del todo infundados, ya que ChatGPT es incapaz de tener un pensamiento humano o crítico. Debido a que no puede tomar decisiones emocionales ni determinar cuándo está siendo perjudicado, si los datos utilizados para informar su investigación están sesgados, el sesgo puede amplificarse en las respuestas proporcionadas, lo que puede tener profundas implicaciones y consecuencias para las agencias gubernamentales que se espera que Proporcionar información imparcial a los ciudadanos. Esto significa que las agencias con interacciones con los ciudadanos deben tener mucho cuidado con la forma en que utilizan la tecnología cuando interactúan con el público o toman decisiones que tienen impactos de amplio alcance.
Estas limitaciones también son buenas noticias, ya que significan que ChatGPT no puede reemplazar a los humanos. Como ocurre con toda la tecnología, tiene tareas en las que sobresale y tareas en las que falla; estas lecciones nos recuerdan que la tecnología existe para empoderar a los humanos, no para reemplazarlos. La regla fundamental de la tecnología es válida para ChatGPT: no confíes; verificar siempre. Es la capacidad humana de cuestionar y confirmar lo que la IA nunca podrá reemplazar.
La integración de ChatGPT en los sistemas federales requiere una inversión considerable de tiempo, recursos y educación para garantizar que realice sus tareas y responsabilidades de manera efectiva sin causar daño. Las agencias deben comprender que ChatGPT no es una panacea para todos los desafíos. Para desbloquear todo su potencial, el gobierno debe adaptar cuidadosamente la herramienta a aplicaciones específicas y, al mismo tiempo, educar a los empleados sobre sus capacidades, aplicaciones y riesgos.
Si bien será necesaria una mayor participación humana en el corto plazo para garantizar que ChatGPT se utilice de manera efectiva y segura, los beneficios futuros de ChatGPT son enormes y, sin duda, conducirán a un gobierno más eficiente y eficaz para todos.