Una aproximación novedosa a la cuestión de LLM y de ChatGPT sería invertir la carga de la prueba. ¿Cómo demostraríamos que ChatGPT es humano? Supóngase que tenemos la sospecha de que ChatGPT funciona porque detrás de su pantalla existe una ciudad entera de seres humanos dedicados a responder a sus prompts. En esta ciudad, los operarios tendrían acceso a todos los recursos de información existentes, tendrían sus necesidades cubiertas, y un horario de trabajo perfectamente distribuido para que ningún prompt quedara sin su correspondiente contestación. Como la IA real, en caso de no poder responder a una cuestión, los operarios están legitimados para «fabricar» una respuesta. Generar una secuencia de texto pertinente, coherente, y relevante, con respecto a la pregunta que, sin embargo, carece de referencia alguna con respecto al mundo real. Es decir, una mentira.
En esta mega «sweat factory» controlada por las grandes corporaciones tecnológicas, la única condición que jamás se puede violar es la de no dejar de simular ser una máquina. ¿Qué tipo de pruebas podríamos utilizar para demostrar que ChatGPT es un ser humano cuando pretende ser una máquina? ¿Podría este ejército de esclavos tecnológicos engañarnos con la idea de que ChatGPT es una máquina y solo una máquina? ¿Cómo demostraríamos que este falso ChatGPT es en realidad un Modelo Humano de Lenguaje y no un Modelo Grande de Lenguaje? ¿Sería ChatGPT inteligente? Los que lo ejecutan lo son ¿Ejercería ChatGPT algún tipo de entendimiento? Los que lo operan tienen entendimiento. ¿Tiene ChatGPT intenciones comunicativas? Sus operarios las tienen. Podríamos proponer juicios de gramaticalidad o aceptabilidad acerca de la lengua que utilizamos en nuestro intercambios. Pero los esclavos tecnológicos los suspenderían intencionadamente. Nada les impediría evitar esquivar la simulación de ser una máquina.
La cuestión es si existe algún test que demuestre invariablemente que algo es humano, sin tener acceso a información física. Quizás algún test relacionado con la existencia de la conciencia podría servirnos de medida, pero demostrar científicamente la existencia de la conciencia incluso en los humanos no es sencillo . Algún organismo puede simular ser humano hasta el límite de nuestra caracterización científica de lo que es un ser humano. No lo sabemos todo sobre la naturaleza humana. Es más sabemos muy poco de ella. Es posible que las pruebas para demostrar que ChatGPT es humano o no residan en aspectos de nuestra naturaleza sobre los que todavía no sabemos nada. Es posible también que la naturaleza artificial o humana de ChatGPT sea un misterio o cierre cognitivo en el sentido de y cuya respuesta se sitúe fuera de nuestra «capacidad para formular ciencia» (CFC).
En definitiva, la posibilidad de demostrar la humanidad o no de ChatGPT es una cuestión empírica y está sujeta a sus mismos condicionantes. Uno de ellos, la posibilidad de que sea un misterio y no un problema y, por ello, evada nuestra CFC.