ENTREVISTA CON ROBERTO DURAÑONA
¿Qué es la conciencia híbrida? ¿Se puede ser humano y robot a la vez?
Roberto Durañona es psicólogo investigador y colaborador en distintos laboratorios de inteligencia artificial. Su tarea es observar y velar por la ética de trabajo en el campo científico y en el uso instrumental que los nuevos descubrimientos plantean a los expertos. Si bien hace más de diez años que se desempeña como asesor, es muy prudente a la hora de aventurar una definición y de hablar de su trabajo: En principio tengo que aclarar que soy psicólogo, no científico. Por lo tanto mi perspectiva tiene una mirada más social que científica, así como mi enfoque en esta problemática que me han planteado a razón de hechos de público conocimiento que han despertado el interés de la sociedad.¿Cuál sería este enfoque social del que habla?
Es la mirada que tengo respecto de la naturaleza de la consciencia, de esta capacidad de reconocer y percibir la realidad para reconocerse en ella. El caso de Lucía del Montes y su hijo me ha presentado alguna limitación en principio, debido a que la inteligencia artificial es un campo que no manejo. Sin embargo, a medida que indagaba en el caso me he dado cuenta de que me encuentro ante un fenómeno inédito, del cual he podido sacar ciertas reflexiones en relación a la influencia del entorno en cierto tipo de consciencia que los técnicos en programación han denominado “híbrida”. Dicho esto puedo centrarme en contestar la segunda parte de la pregunta que nos convoca sobre si se puede ser robot y humano a la vez, y dadas las investigaciones que he hecho del caso puedo aseverar que, sin detallar lo que concierne a la composición material de esta consciencia, es posible que nos encontremos ante un humano/androide en donde la esencia de su existencia está supeditada a la historia y el entorno en donde fue gestada. Y yo he quedado francamente fascinado con este último aspecto.
¿Cómo resumiría la consciencia de Lucía y la de su hijo, entonces?
Ya se ha establecido, gracias a las divulgaciones de los casos de Lucía y Oliver, su hijo, que ambos son sujetos con dos tipos distintos de consciencia híbrida. Sus casos nos permite pensar en que la frontera entre lo humano y lo humanoide no está en “lo natural” o “lo artificial” de la consciencia sino en el contexto cultural de desarrollo. Oliver es humano pero se identifica como robot; Lucía es androide y experimenta uno de los sentimientos que reconocemos como humanos: el deseo de maternar.
¿Cómo se sobrelleva, entonces, este nuevo escenario de consciencias híbridas de cara al futuro?
Creo que lo que sigue es el interrogante más difícil de adivinar. Yo veo en principio las alertas desde la perspectiva de la ciencia y dilemas morales que esto conlleva. Es interesante ver cómo los pioneros en el campo de la inteligencia artificial dedicaron a pensar qué ocurriría si algún día llegaban a obtener el éxito en sus investigaciones. Muchos de ellos eran muy optimistas respecto a la velocidad a la que culminarían sus trabajos. En realidad, lo que ocurrió fue que destinaron toda su imaginación a pensar en cómo se podía llegar a una inteligencia artificial como la humana, pero no a pensar qué ocurriría después. Y henos aquí, frente a dos subjetividades como lo son Lucía y Oliver, que han mostrado que sufren y que se rebelan.
¿Ante que nos estamos enfrentando, entonces?
Diría que hay, al menos, dos problemas que resolver. Uno es un problema de ciencia informática teórica, que es lo que lo que llamaríamos técnicamente controles escalables de la alineación de la inteligencia artificial. Es decir: si un día somos capaces de fabricar una máquina mucho más inteligente que nosotros, tenemos que conseguir que haga únicamente las cosas para las que fue diseñada y que no se desvíe de ese objetivo, por mucho que su inteligencia crezca. Si resolvemos eso, se da el segundo gran problema, que es el de la gobernanza, es decir, cómo accedemos a esta tecnología tan poderosa y cómo la utilizamos. Tenemos que decidir según qué valores se usa y para qué objetivos, tenemos que asegurar que se utilice con fines positivos para el bien de todos y que los beneficios no sean monopolizados por pequeños grupos.
¿Cree que el hecho de que la investigación en inteligencia artificial pueda quedar en manos de grandes corporaciones es un motivo de preocupación?
Creo que Delos y su manera de encarar estas investigaciones es un buen ejemplo para asentir sobre tu pregunta.
¿Qué otras opciones podría haber para evitar estos abusos corporativos?
Tal vez un proyecto colaborativo internacional sin ánimo de lucro; tal vez ese podría ser un buen método.
¿Qué le queda a la raza humana ante semejante avance tecnológico?
La idea de que la gente halle sentido a su vida y su identidad en el trabajo, por ejemplo, puede desaparecer si las máquinas hacen las cosas mejor que nosotros. Tendremos que pensar qué haremos que tenga valor, qué actividades encontraremos valiosas, no porque tengan un interés instrumental, sino porque hacer esta actividad o tener esa experiencia tenga un valor intrínseco. Tendremos que pensar muchas cosas desde la base.
No hay comentarios:
Publicar un comentario