miércoles, 12 de agosto de 2009

LOS TEMAS DE ESTE TIEMPO



CONVIVENCIA
DE HUMANOS
CON LA VIDA
ARTIFICIAL

Escribe
JUAN RUIZ SIERRA
(foto)

“El Periódico” de Catalunya
10 de agosto de 2009

Hace algo menos de una década, el investigador Hans Moravec predijo que la inteligencia de los robots sería análoga a la de los lagartos en el 2010, a la de los ratones en el 2020, a la de los monos en el 2030 y, finalmente, a la de los humanos en el 2040. El vaticinio de Moravec, que trabaja en el Instituto de Robótica de la universidad norteamericana de Carnegie Mellon, vendría después refrendado por los tecnócratas de los dos países que más recursos destinan a la vida artificial, Japón y Corea del Sur —el Gobierno surcoreano ya ha dicho que pretende que cada hogar tenga su propio robot dentro de unos 10 años—, quienes creen que la sociedad en la que los robots coexistan con los humanos codo con codo emergerá alrededor del 2030, dentro de 20 años.

Entonces comenzarán a verse sofisticados robots de nueva generación capaces de tomar sus propias decisiones, que formarán parte del día a día de las personas fuera de los ámbitos industriales, prestando servicios de enfermería, seguridad, domésticos o educativos. El problema es que, a diferencia de lo que ocurre en la física nuclear o la ingeniería genética, se ha reflexionado poco sobre los límites a la investigación con robots y cómo deben ser legisladas estas nuevas criaturas. Hasta ahora. Una nueva corriente entre los expertos quiere desarrollar criterios sobre quién regula a las máquinas, cómo se las castiga cuando infringen daños —una posibilidad que se multiplicará en el nuevo mundo robótico— y qué estatus jurídico darles.

NO MÁS PSICÓPATAS / Lo importante, sostiene Josh Hall, científico y autor del libro Beyond AI: creating the conscience of a machine (Más allá de la inteligencia artificial: Creando la conciencia de una máquina; inédito en España), es dejar de fabricar de una vez «robots psicópatas». ¿Robots psicópatas? De acuerdo con Hall, «si construyes inteligencia artificial sin pensar sobre su sentido moral o sin crear la capacidad de arrepentirse cuando esa máquina hace algo mal, entonces, técnicamente, esa máquina es una psicópata. Ya tenemos robots que toman decisiones de acuerdo con una serie de criterios preseleccionados, y en las áreas donde son expertos, toman buenas decisiones. Para que tomen decisiones de acuerdo a una serie ilimitada de criterios, faltan entre 10 y 20 años».

ALGORITMOS DE APRENDIZAJE / Carme Torras, investigadora del Institut de Robòtica CSIC-UPC y autora de la novela de ciencia ficción La mutacin sentimental, acerca del impacto que los robots tendrán sobre los humanos, lo explica de otra manera: «Existen toda una serie de algoritmos, llamados de aprendizaje por refuerzo, que hacen que, cuando el robot actúa frente a determinados estímulos, reciba del entorno una realimentación que en el futuro favorezca o penalice que vuelva a actuar de la misma manera en la misma situación. Por ejemplo, un robot asistente de cocina equipado con sensores de temperatura puede aprender por sí mismo a no acercarse demasiado al fuego. Otros algoritmos propician que el robot pida asesoramiento a un humano cuando detecta una sorpresa, una situación imprevista».
.
Cuando un robot causa un daño, como ocurrió hace un par de años en Suráfrica, donde una máquina del ejército tuvo un fallo y acabó con la vida de nueve soldados, la responsabilidad puede ser de quien ha fabricado la máquina o de quien la ha manipulado. El especialista en ética robótica Michael Nagenborg ha escrito que en casos como este «el dueño del robot tendrá que probar siempre su inocencia. Por ejemplo, puede ser considerado inocente si actuó de acuerdo con las instrucciones del diseñador de la máquina. En este caso, sería el diseñador quien tendría que asumir la responsabilidad del daño». Sin embargo, hay quienes consideran que es este un planteamiento simplista para encarar la coexistencia entre humanos y robots que comenzará a darse en breve.

Hall, por ejemplo, cree que «las máquinas evolucionarán de tal manera que, cada vez más, tendremos que decidir si la responsabilidad cuando esta hace algo prohibido reside en quien la diseñó o en la propia máquina». «Claro, habrá casos complicados —continúa—, pero igual que en ocasiones, con los humanos, es complicado decidir si la responsabilidad de determinado acto es de los padres o de los niños. Aquí se recurre a un corte arbitrario: por debajo de determinada edad, el padre es el responsable; por encima, al niño se le considera responsable de sus propios actos. Un tipo de corte arbitrario similar también podría funcionar para las máquinas».

Lo que planea sobre todas estas cuestiones, en el fondo, es qué tipo de estatus jurídico tendrán los robots del futuro. «Hay investigadores que abogan por que los robots sean considerados una especie autónoma —señala Carme Torras—. No estoy de acuerdo. Creo que han de ser considerados como una herramienta para los humanos. De lo contrario, podrían convertirse en un peligro. Puede que a la gente todo esto le suene muy lejano, pero, en realidad, lo tenemos a la vuelta de la esquina».

No hay comentarios: