Nixse
0

¿Podemos controlar la Inteligencia Artificial (IA) o nos controlará ella a nosotros?

En 1818 Mary Shelley publicó una novela nueva e innovadora titulada Frankenstein. Su efecto fue la introducción de un nuevo género en el mundo de la literatura, el de lo sobrenatural. La historia sigue al ambicioso científico Victor Frankenstein, impulsado por el deseo de vencer a la muerte y desvelar los secretos de la vida. Para ello, utiliza sus habilidades y su ingenio para crear una criatura similar a un ser humano a partir de partes del cuerpo reanimadas. Hasta aquí todo bien, salvo que poco después la criatura escapa al control de su creador. Este es el origen de los numerosos problemas que se plantean.

Con la llegada de la Revolución Industrial y sus numerosos avances en ciencia y tecnología, la pregunta pertinente en boca de muchos era: «¿Adónde conduce todo esto y, por extensión, dónde acabará?». El progreso que se estaba produciendo trajo consigo beneficios evidentes, como nuevos productos como los trenes ferroviarios y nuevos componentes de construcción, como el acero barato. Sin embargo, al mismo tiempo también trajo desventajas igualmente obvias, como ciudades contaminadas y personas que tenían que vivir en barrios marginales. Pero, además de éstas, la gente empezó a preguntarse si había otras consecuencias ocultas que podrían estar fuera del control del hombre y que todo el mundo podría llegar a lamentar. En pocas palabras, ¿qué ocurre cuando el hombre empieza a explorar la ciencia y a desarrollar la tecnología de tal manera que se podría pensar que está jugando a ser Dios?

Si tuviéramos que trasladar el Frankenstein y lo sobrenatural a la era moderna, un buen ejemplo serían las travesuras de Hal 9000, el ordenador de «2001: Una odisea del espacio», de Stanley Kubrick. Se confió en Hal y se le encomendó la gran responsabilidad de ayudar a la tripulación humana en el éxito del vuelo espacial. Sin embargo, creyendo que podía hacer un trabajo mejor que la tripulación, acabó volviéndose contra ellos y se hizo cargo de la misión. Debía ayudar a los humanos, pero había decidido que ya no los necesitaba.

Este pensamiento aleccionador nos lleva a la actualidad y a los recientes desarrollos exponenciales de la informática moderna, con especial énfasis en la Inteligencia Artificial (IA). Por supuesto, podemos aceptar que «2001: Una odisea del espacio» fue un cuento del cine, pero la vida tiene a menudo formas interesantes de imitar al arte.

La IA se refiere a la simulación o aproximación de la inteligencia humana, ya sea en máquinas o en su software, por oposición a la inteligencia de los seres humanos vivos. Sus objetivos incluyen el aprendizaje, el razonamiento y la percepción mejorados por ordenador. Al menos, ésa es la definición que da Wikipedia, pero me pregunto si siquiera sabemos lo que realmente pretende la IA cuando la dejamos a su aire.

Lo que quiero decir con esto es que cuando se enciende un ordenador o una aplicación, o cuando un centro en la nube está funcionando con todos sus servidores y su almacenamiento y sus algoritmos, ¿quién sabe realmente lo que puede estar haciendo, o lo que se le puede ocurrir? Como ejemplo menor de esto, me ha asombrado la forma en que Google, Amazon, Facebook y muchas otras empresas saben muchas cosas sobre mí que no recuerdo haberles dicho específicamente.

Sin embargo, ahora resulta que cuando yo pasaba tiempo en diversas redes sociales, ellas estaban recogiendo todo tipo de información, estudiándola y correlacionándola para sus propios fines. Y en ese momento yo no era consciente de ello. Así que, simplemente teniendo en cuenta mis búsquedas en Internet y mis intereses durante más de veinte años, han alcanzado un alto nivel de conocimiento sobre mí. ¿Podemos imaginar lo que sabrán de nosotros dentro de otros veinte años?

Entonces, ¿es la IA la mayor amenaza para el futuro de la humanidad, un monstruo de Frankenstein o un Hal 9000 fuera de control, o es un invento a la altura de la electricidad o los barcos de vapor, de gran utilidad potencial para todos nosotros? Quizá sea un poco de ambas cosas. Quizá sea como cualquier otra herramienta. Puede utilizarse para el bien o, en las manos equivocadas, para el mal.

Por ejemplo, en el Reino Unido, el Viceprimer Ministro Oliver Dowden ha calificado la IA de «bala de plata» por su potencial para ahorrar grandes cantidades de dinero al realizar muchas tareas administrativas de forma más eficiente que los seres humanos. En cambio, los despedidos por este tipo de planificación podrían ser menos partidarios de estos beneficios.

En cuanto a la oposición laborista, se ha mostrado dispuesta a hablar de los beneficios potenciales de la IA para la gestión de más aspectos del Servicio Nacional de Salud (NHS). Por ejemplo, los médicos consideran que algunas herramientas de IA son ahora mejores que los humanos a la hora de analizar los escáneres de cáncer, y éste es sólo uno de los muchos ejemplos científicos y médicos. En cualquier caso, para los políticos empeñados en mejorar los servicios públicos sin gastar más dinero en ellos, la IA se presenta como una oportunidad evidente.

Sin embargo, ¿qué ocurre cuando la misma potencia informática que puede leer escáneres médicos es utilizada por elementos criminales para producir imágenes y vídeos falsos realistas? Estos «deepfakes» pueden difundir información errónea y manipular la opinión pública, minando la confianza y fomentando la confusión. Como tales, pueden difundir propaganda, manipular las tendencias de las redes sociales y amplificar cuestiones divisorias, dando lugar a toda una serie de problemas como el malestar social, la polarización de las opiniones y la erosión de la confianza en el discurso público.

En el Reino Unido, el partido laborista de la oposición ha propuesto una prohibición legal de las «herramientas dedicadas» que permiten a los usuarios generar cualquier contenido subiendo imágenes de personas reales. También quiere crear la obligación de que los desarrolladores de herramientas de IA de uso general, así como las empresas de alojamiento web, tomen medidas razonables para garantizar que no están implicados en la producción de tales imágenes, o de cualquier otro deepfake perjudicial. Eso sería sin duda un comienzo, aunque las empresas de medios sociales a menudo han dado largas cuando se trata de proporcionar salvaguardias en línea contra el mal comportamiento. Un ejemplo de ello sería conseguir que las empresas prohibieran el acoso en línea.

En cualquier caso, es necesaria una respuesta contundente, ya que los delincuentes también están utilizando la IA para ayudarles a llevar a cabo fraudes financieros a gran escala. En Estados Unidos, el Servicio de Impuestos Internos (IRS) ha declarado que espera que el fraude en la devolución de impuestos alcance su nivel más alto en 2024, ya que la IA permite a los ciberdelincuentes hacerse pasar por contribuyentes con más facilidad que nunca.

En el pasado, los estafadores recopilaban información sobre un contribuyente concreto, como fotos, direcciones, situación laboral y otros datos personales. Estos datos se publicaban o estaban disponibles en bases de datos legales o ilegales, o podían haber sido robados mediante suplantación de identidad por correo electrónico. A continuación, los estafadores presentan una declaración falsa en nombre del contribuyente antes de que éste haya presentado la verdadera. A partir de ese momento, a menos que se descubra la estafa, cualquier devolución que se adeude irá a parar al estafador.

Lo que hace que la situación sea peor que en el pasado es que la IA permite a estos defraudadores crear identidades falsas mucho más rápido que antes, y también les permite utilizar técnicas cada vez más sofisticadas para burlar las medidas de seguridad desplegadas por el IRS, y por las empresas de contabilidad y otros profesionales fiscales.

De hecho, los profesionales de la fiscalidad corren un gran riesgo debido a tres factores principales. En primer lugar, están los intensos calendarios de trabajo a los que se enfrentan a medida que se acerca la fecha límite de presentación de declaraciones, el 15 de abril. Bajo una intensa presión, es fácil imaginar un escenario en el que puedan ser sorprendidos por ciberdelincuentes que se hagan pasar por contribuyentes reales e intenten que les entreguen datos confidenciales de sus clientes.

El segundo factor es que muchas devoluciones de impuestos se envían como una transacción única al año. Cuando sólo hay un pago a un contribuyente, es mucho más difícil detectar cualquier tipo de comportamiento o tendencia sospechosa. Y en tercer lugar, la IA es especialmente difícil de tratar porque su naturaleza básica es el «autoaprendizaje». Es decir, que no importa cuántas veces fracase en la consecución de sus objetivos, seguirá probando diferentes técnicas hasta que un día lo consiga. Es decir, es implacable. Así, por ejemplo, el año pasado Hacienda recibió casi 300.000 denuncias por usurpación de identidad y acabó teniendo que marcar más de un millón de cuentas distintas.

No es de extrañar que la IA también se utilice cada vez más en la oficina moderna, por ejemplo, en Recursos Humanos (RRHH), y especialmente cuando se trata de entrevistar a posibles empleados. Esto es sorprendente por varios motivos. En primer lugar, cabría imaginar que los responsables de RRHH conocen bien el mercado laboral y saben cómo conservar sus puestos. Además, probablemente les moleste que sus jefes piensen que una máquina puede sustituirles.

Pero aparte de eso, también está el aspecto de la competencia. ¿Cómo puede una máquina realizar una entrevista inteligente? ¿Cómo puede hacer preguntas inquisitivas, examinar el lenguaje corporal y captar todo tipo de señales verbales y no verbales?

La respuesta a esta pregunta no está nada clara. Hace poco, un joven informático buscaba un puesto en una empresa de Nueva York y le invitaron a una entrevista telefónica.

«La voz sonaba parecida a Siri», dijo. «La verdad es que daba escalofríos».

Pronto se dio cuenta de que no estaba hablando con una persona viva. El entrevistador era un sistema de inteligencia artificial que tenía un hábito bastante grosero. Le hacía todas las preguntas correctas: ¿cuál es su estilo de gestión? – pero no esperaba a que el entrevistado respondiera a todas las preguntas.

Después de interrumpirme, la IA respondía: «¡Genial! ¡Suena bien! Perfecto» y pasaba rápidamente a la siguiente pregunta. Después de la tercera o cuarta pregunta, la IA se detenía por completo y, tras una breve pausa, me decía que la entrevista había terminado y que alguien del equipo se pondría en contacto conmigo más tarde».

Para muchos, todo esto sonará convenientemente distópico. ¿Qué sentido tiene hacer una pregunta y no esperar a oír la respuesta? Uno podría pensar eso, pero una encuesta reciente de Resume Builder descubrió que para 2024, cuatro de cada diez empresas usarían IA para «hablar con» los candidatos en las entrevistas. De esas empresas, el 15% dijo que las decisiones de contratación se tomarían sin la intervención de un humano en absoluto.

Tal vez lo único que esto demuestra es lo incompetentes que son los responsables de recursos humanos. No puedo ni imaginar qué tipo de candidatos acabarán siendo contratados mediante este tipo de proceso, pero me parece que las personas que «superen» estas entrevistas con IA podrían no ser las más cualificadas para el puesto. Más bien podrían ser aquellos que saben «leer» la máquina de IA y que de alguna manera pueden «engañarla» dándole el tipo de respuestas que está buscando. Mientras que cualquier candidato decente y bien cualificado podría pensar inmediatamente que no merece la pena trabajar para este empleado. Al fin y al cabo, parece que no les importa mucho conseguir al mejor candidato si pueden tratarlo de esta manera tan descortés sin molestarse siquiera en dedicarle unos minutos de su tiempo personal.

Sin embargo, la otra cara de esta cuestión es que los empresarios que utilizan la IA en sus procesos de contratación estarán totalmente a favor. Dirán que los sistemas de IA se utilizan para tachar tareas mundanas de la agenda diaria de un reclutador, liberándoles así para cosas más importantes. Por ejemplo, les ayuda a seleccionar más fácilmente a los 1.000 mejores candidatos y, una vez que se quedan con los diez mejores, el proceso es estrictamente humano.

Pero esta idea de facilitar las cosas funciona en ambos sentidos. Si las empresas utilizan la IA para facilitar el proceso de contratación, ¿por qué no deberían hacer lo mismo los candidatos? Según el sector de los recursos humanos, hoy en día muchos candidatos utilizan herramientas de IA para adaptar sus currículos y redactar sus cartas de presentación. Sin embargo, sigue siendo importante aplicar ese toque personal a la propia solicitud, como añadir anécdotas relevantes, por ejemplo. De lo contrario, todos los que utilicen la IA, y serán muchos, obtendrán un resultado similar.

En cualquier caso, hoy en día la preponderancia de la IA es tal que está haciendo que los empleadores desconfíen más de los currículos y cartas de presentación generados por IA. De hecho, algunos profesionales de RR.HH. dicen ahora que descartan mucha de la información que reciben por escrito por esta misma razón. Así que, después de preocuparnos por las entrevistas dirigidas por máquinas, quizá hayamos cerrado el círculo, ya que los empresarios prefieren llegar a una conversación cara a cara para poder valorar adecuadamente a los candidatos, evitando así cualquier tipo de lo que podrían considerar «trampa».

Y ya que nos referimos a la IA como cómplice del engaño, actualmente no hay mejor ejemplo de ello que en la industria musical del Reino Unido (RU). Quienes dirigen sus grandes empresas acaban de lanzar su primera iniciativa legal contra la tecnología de IA «deepfake». Amenazan con demandar a una start-up llamada Voicify, que produce canciones «imitando» las voces de músicos consagrados como Amy Winehouse, Rihanna y Drake. No se trata tanto de imitar sus voces como de haber utilizado (es decir, robado) sus obras protegidas por derechos de autor para que la IA creara la tecnología capaz de hacer las imitaciones.

Voicify opera en Internet con el nombre de Jammable, y ofrece un servicio de creación de canciones falsas combinando la propia canción con las voces de artistas conocidos para formar nuevas composiciones. El sitio web permite a los usuarios subir sus propias voces cantando una canción y luego la IA convierte la grabación en una pista de audio que se supone que suena como el artista conocido en cuestión. Pero, ¿durante cuánto tiempo podrán hacer esto? Es muy posible que la IA lo permita, pero la ley de derechos de autor ya existe para proteger a los compositores y sus canciones de la piratería. Sin embargo, todo esto estará sujeto al escrutinio de los tribunales de justicia.

Así que aquí estamos, en el Brave New World de la IA. En un hospital tenemos escáneres fáciles. Pero en Hacienda tenemos estafas fáciles. Y por cada aumento de productividad producido por la IA, también tenemos máquinas haciendo trabajos para los que probablemente no son aptas.

Y hay otro aspecto de la IA que también me preocupa. Uno de los grandes temas de la política moderna es cómo cuidar el medio ambiente, porque sólo tenemos un planeta. Sin embargo, ¿alguien se olvidó de informar a la gente de la IA? Hablan de todos los avances de la tecnología digital y de cómo las máquinas piensan por sí mismas, y de cómo todo ello dejará menos huella que lo que había antes. Se trata de un avance maravilloso en el que se habla mucho de la oficina «sin papeles» y de la transacción «sin fricciones».

Hasta aquí, todo bien. Sin embargo, la otra cara de la moneda es el moderno centro de datos informático, necesario para alimentar toda la informática necesaria. El centro de datos suele ser un enorme cobertizo metálico que alberga decenas o incluso cientos de miles de servidores en funcionamiento. Empresas como Google o Microsoft, o cualquier otra que opere en la nube, tendrán miles de ellos repartidos por todo el mundo. Puede que no los veamos, puede que ni siquiera estén en el mismo continente que nosotros, pero para satisfacer el apetito de inteligencia artificial, funcionarán las 24 horas del día, los 7 días de la semana, consumiendo cantidades ingentes de electricidad y necesitando enormes cantidades de agua para sus sistemas de refrigeración.

Según fuentes de la industria, actualmente hay entre 9.000 y 11.000 de estos centros de datos en el mundo. Muchos de ellos empiezan a parecer un poco anticuados, porque son antiguas granjas de servidores con millones de ordenadores baratos que almacenan todos los datos, es decir, las fotografías, documentos, vídeos, grabaciones de audio, etc. que genera cada día un mundo habilitado para los teléfonos inteligentes.

Pero si imaginábamos que esto ya era bastante malo desde el punto de vista medioambiental, debemos darnos cuenta de que todo esto está a punto de cambiar en los próximos años. Y es que la IA implica aprendizaje automático, y esto requiere un tipo diferente de procesador informático, a saber, unidades de procesamiento gráfico (GPU), que son considerablemente más complejas (y caras) que los procesadores convencionales. Y lo que es más importante, consumen mucha más energía, se calientan más y, por tanto, necesitan mucha más refrigeración. ¿De dónde va a salir toda esa energía extra? ¿A nadie le preocupa que pueda contribuir al cambio climático? Y lo que es aún más importante, ¿de dónde va a salir toda el agua que se va a necesitar y cómo se va a conseguir sin afectar al suministro de agua potable de las comunidades locales?

Un artículo publicado recientemente en la revista Nature afirmaba que un nuevo y gigantesco clúster de centros de datos que sirve al modelo más avanzado de OpenAI, el GPT-4, tiene su sede en el estado de Iowa. Los residentes de la zona iniciaron una demanda para descubrir el alcance del consumo de agua del centro de datos. Cuando llegaron los resultados, revelaron que en julio de 2022, el mes anterior a que OpenAI terminara de entrenar el modelo, el clúster había utilizado alrededor del 6% del agua del distrito. No es una cantidad pequeña, y es probable que haya zonas que no puedan soportar este nivel de consumo de sus recursos hídricos. Todo ello nos lleva a preguntarnos si el paso a la IA es sostenible. En otras palabras, si la IA va a consumir los mismos recursos que necesitamos para vivir, ¿no sería mejor prescindir de ella?

Al final, la parte medioambiental de la cuestión podría ser lo que acabe con la IA como futuro viable. Sin embargo, incluso si ese problema puede superarse, aún nos quedarán los muchos riesgos que hemos mencionado. Tal y como están las cosas, actualmente hay demasiadas incógnitas acechando en las sombras, y ¿quién puede fiarse de lo que puedan hacer los malos actores?

Por lo tanto, para que esta nueva tecnología sea beneficiosa para todos, será esencial desarrollar normativas sólidas, directrices éticas y medidas de seguridad adecuadas para hacer frente a los muchos usos indebidos potenciales de la IA. El gobierno debe concienciar sobre el problema y garantizar que las empresas de tecnologías de la información (TI) apliquen medidas de ciberseguridad sólidas contra cualquier posible abuso. Al fin y al cabo, recordando a Víctor Frankenstein, nadie quiere un monstruo tecnológico fuera de control.

 



También podría gustarte
Deja una respuesta

Su dirección de correo electrónico no será publicada.