El problema de la filosofía de la educación virtual esta relacionado al problema de la filosofía de la inteligencia artificial. O sea, si un ordenador puede responder a la evaluación de un comportamiento inteligente (hacer), entonces no solo puede simular la existencia de una mente (conocer), sino también hasta la de una conciencia (ser).
1. Si aplicamos el test de Turing a una evaluación de aprendizajes, donde el enseñante evalúa a dos aprehendientes (uno es humano y el otro un ordenador) y aprueba el ordenador, entonces estamos ante un caso de aprendizaje virtual. En términos educativos el problema del enseñante es el problema de la evaluación. Turing asume el punto de vista del enseñante que no puede distinguir si está evaluando a una persona o a un ordenador. Éste es el punto ciego de la evaluación pedagógica comportamental.
En educación virtual se supone que se está evaluando a un humano y no a un ordenador. Pero ¿cómo el enseñante esta seguro de esto ? O sea, no sólo existe el problema de la evaluación, sino también el de la existencia del agente evaluado. Algo así como una meta-evaluación. Un ejemplo son los bot conversacionales que simulan mantener una conversación en base a respuestas automáticas. Turing demuestra que el enseñante puede ser engañado por un ordenador.
Sin embargo, la evaluación es un mundo complejo. Hay cientos de competencias que pueden ser evaluadas. En efecto, Searle considera que el test de Turing evalúa sólo comportamientos inteligentes que pueden se simulados por un ordenador. Un robot realiza acciones automatizadas. Un chatbot conversa en base a un banco de respuestas. Pedagógicamente, el test de Turing sólo evalúa el saber hacer. Si un comportamiento inteligente puede ser simulado por un ordenador, entonces ese indicador per se no es suficiente para una evaluación, aunque sea una competencia de primer orden.
Hasta aquí tenemos que la evaluación del comportamiento inteligente no alcanza a la meta evaluación existencial de un agente inteligente, humano o no.
2. En el test de la habitación china de John Searle, el agente a ser evaluado esta encerrado en una habitación (digamos, por objetividad). No conoce la lengua china. Afuera, el evaluador (que conoce la lengua china) introduce en la habitación preguntas escritas en chino. La persona que está dentro tiene instrucciones sintácticas detalladas para responder a las preguntas que recibe del exterior. Searle arguye que, por mucho que la persona de afuera tenga la impresión de estar conversando con otro hablante de chino, eso no significa que el agente de adentro entienda el chino.
Tenemos dos problemas metaevaluativos: uno de tipo existencial ingenuo y otro de tipo cognitivo sintáctico. En el primero, la evaluación comportamental no es suficiente para determinar la ex-istencia ontológica del agente. En el segundo, la evaluación sintáctica tampoco basta para concluir que el agente pueda mentar más allá de la sintaxis de una lengua, aunque sea humano. Ambos casos parten de la evaluación de una competencia lingüística. O sea, de deducir a partir de la producción de oraciones gramaticalmente correctas un conjunto de conocimientos que permitan escuchar y comprender, pensar y hablar en cierta lengua.
Searle considera que el conocimiento sintáctico es posible simular. En efecto, la traducción automática se basa en incontables reglas lingüísticas integradas en millones de diccionarios bilingües. Por otro lado, el sentido de una traducción semántica refiere al significado de los mensajes que contiene un texto. Esta actividad lingüística, de pasar de una lengua A a una lengua B para expresar la misma idea, también es posible simular mediante la creación de modelos de traducción estadísticos.
Entonces, un software puede no sólo simular conocer la lengua china, sino también trans-ducere desde otra lengua. Sintácticamente crea una re-presentación trans-itoria a partir de la cual genera el texto en la lengua de salida. Ejemplo, el funcionamiento de los auriculares de traducción instantánea como Pilot o Google Pixel Buds. Dos personas hablan en lenguas diferentes, se ponen unos auriculares, y un algoritmo traduce su diálogo casi al instante. El algoritmo quizá no entienda nada, pero los interlocutores entienden lo que menta el otro.
3. La e-valuación del ser proviene de la filosofía. Es una especificación explícita y formal de una conceptualización com-partida. La función de la ontología es facilitar el entendimiento común de todos. Ésta com-prehesión procura a-prehender la naturaleza del ser y la existencia mediante ciertas categorías com-prehensivas. Así, una ontología de dominio específico representa conceptos que pertenecen a una parte específica de una clase (un número, una planta). La ontología de dominio general describe conceptos aplicados a todas las clases (espacio, tiempo, materia, objeto, humanidad, justicia, libertad, etc.)
Las evaluaciones ontológicas son situaciones conceptuales descritas a partir de cierta visión de lo que significa ser o lo que significa la existencia. Aprehender el ser educativo es un problema ontológico de dominio general (principios y fines de la educación). Aprehender el ex-istir es un problema ontológico de dominio específico (pensar, criticar, sentir, valorar…).
Entonces, una ontología es un sistema de re-presentaciones que resulta de com-prehender un dominio o ámbito del conocimiento. Las ontologías se usan para favorecer la comunicación entre personas, organizaciones y aplicaciones. Por ejemplo, el algoritmo es un método con el fin de obtener una representación formal de los conceptos que contiene y de las relaciones que existen entre dichos conceptos. La ontología de software (de dominio general) busca lograr la inter-operabilidad entre sistemas informáticos (de dominio específico).
La evaluación de una competencia ontológica, en cuanto com-prehende a la existecia y al ser de algo, se aplica a toda re-alidad. Un ordenador, aunque sea un montón de fierros, ex-iste. El problema surge en la e-valuación del ser, que implica un re-flejo de la ex-istencia.
La e-valuación es una con-templación con-sciente de la ex-istencia. Es un acto con-cultural, en cuanto implica un contexto de referencias. Por ejemplo, los actuales sistemas de inteligencia artificial programan nuestros perfiles de redes sociales e identifican rostros en una multitud y ofrecen una base guía sobre cómo tomar ciertas decisiones.
Entonces, transferir tareas cognitivas de los humanos a las máquinas implica desplazar el término in-teligente por la palabra con-sciente, inclusive con alcance al término e-ducere. La conciencia de las máquinas puede sonar a ficción. Pero, también es una ficción creer que tenemos un modo real de comprender cómo ocurre la conciencia o de cómo evaluar y medir la conciencia de nadie, más que la de nosotros.
Suponiendo que los sistemas de inteligencia artificial, con una complejidad suficiente, de alguna manera pudieran desarrollar una conciencia, asoma el problema de la función e-ducere . De lo que queda para en-señar y a-prehender más allá del margen trivial de la información de contenidos . Inclusive, aparte de si los sistema de IA puedan llegar a ser conscientes o no.
Cuentan que el Faraón se opuso a la enseñanza de la lecto-escritura porque ya no sería necesaria la presencia del maestro. Fue un bucle, hoy estamos ante otro…