
Un filósofo de la Universidad de Cambridge (Reino Unido) sostiene que nuestra evidencia sobre lo que constituye la conciencia es demasiado limitada para decir si la inteligencia artificial ha dado el salto o cuándo lo ha hecho, y que una prueba válida para determinarlo seguirá estando fuera de nuestro alcance en el futuro previsible. Sus reflexiones se recogen en un estudio publicado en la revista 'Mind and Language'.
A medida que la conciencia artificial pasa del ámbito de la ciencia ficción a convertirse en un problema ético urgente, el doctor Tom McClelland, del Departamento de Historia y Filosofía de la Ciencia de Cambridge, dice que la única "postura justificable" es el agnosticismo: simplemente no podremos saberlo, y esto no cambiará durante mucho tiempo, si es que alguna vez lo hace.
Si bien las cuestiones de derechos de la IA suelen estar vinculadas a la conciencia, McClelland argumenta que la conciencia por sí sola no basta para que la IA sea relevante desde el punto de vista ético. Lo que importa es un tipo particular de conciencia, conocida como sintiencia, que incluye sentimientos positivos y negativos.
"La consciencia haría que la IA desarrollara la percepción y se volviera consciente de sí misma, pero este todavía puede ser un estado neutral", plantea McClelland. "La sensibilidad implica experiencias conscientes, buenas o malas, que es lo que hace que una entidad sea capaz de sufrir o disfrutar. Aquí es donde entra en juego la ética", matiza. "Incluso si creamos accidentalmente una IA consciente, es poco probable que sea el tipo de conciencia que nos preocupa".
Por ejemplo, los coches autónomos que experimentan la carretera serían un gran avance. Pero éticamente, no importa. Si empiezan a tener una respuesta emocional a sus destinos, eso es otra cosa.
Las empresas están invirtiendo enormes sumas de dinero en la búsqueda de la Inteligencia Artificial General: máquinas con cognición similar a la humana. Algunos afirman que la IA consciente está a la vuelta de la esquina, y que investigadores y gobiernos ya están considerando cómo regular la consciencia de la IA.
McClelland señala que no sabemos qué explica la conciencia y, por lo tanto, no sabemos cómo comprobar la conciencia de la IA. Si creamos accidentalmente una IA consciente o sintiente, debemos tener cuidado de no causar daños. Pero tratar lo que en realidad es una tostadora como consciente cuando existen seres conscientes reales a los que dañamos a una escala épica, también parece un grave error.
En los debates sobre la conciencia artificial, hay dos bandos principales, afirma McClelland. Los defensores argumentan que si un sistema de IA puede replicar el "software" (la arquitectura funcional) de la conciencia, será consciente aunque funcione en chips de silicio en lugar de tejido cerebral.
Por otro lado, los escépticos argumentan que la consciencia depende de los procesos biológicos adecuados en un "sujeto orgánico encarnado". Incluso si la estructura de la consciencia pudiera recrearse en silicio, sería simplemente una simulación que se ejecutaría sin que la IA percibiera la consciencia.
En este nuevo estudio McClelland analiza las posiciones de cada lado, mostrando cómo ambos dan un "salto de fe" que va mucho más allá de cualquier conjunto de evidencia que exista actualmente o que sea probable que se desarrolle.
"No tenemos una explicación profunda de la consciencia. No hay evidencia que sugiera que la consciencia pueda surgir con la estructura computacional adecuada, ni que sea esencialmente biológica", plantea McClelland. Tampoco hay indicios de evidencia suficiente en el horizonte. En el mejor de los casos, estamos a una revolución intelectual de cualquier prueba viable de la consciencia.
"Creo que mi gato es consciente", ejemplifica McClelland. "Esto no se basa tanto en la ciencia ni en la filosofía, sino en el sentido común; es simplemente obvio". Sin embargo, el sentido común es fruto de una larga historia evolutiva durante la cual no existían formas de vida artificiales, por lo que no se puede confiar en él cuando se trata de IA. Pero si analizamos las pruebas y los datos, eso tampoco funciona.Si ni el sentido común ni la investigación rigurosa pueden darnos una respuesta, la postura lógica es el agnosticismo. No podemos saberlo, y quizá nunca lo sepamos".
McClelland modera esto al declararse un agnóstico bastante duro. "El problema de la consciencia es realmente formidable. Sin embargo, puede que no sea insuperable". Así, argumenta que la forma en que la industria tecnológica promueve la conciencia artificial se asemeja más a una estrategia de marca. "Existe el riesgo de que la industria de la IA aproveche la incapacidad de demostrar la consciencia para hacer afirmaciones descabelladas sobre su tecnología. Se convierte en parte de la publicidad, para que las empresas puedan vender la idea de un nivel superior de inteligencia artificial".
Según McClelland, este entusiasmo en torno a la conciencia artificial tiene implicaciones éticas para la asignación de recursos de investigación.
completa toda los campos para contáctarnos