La inteligencia artificial sería un peligro para nosotros mismos
Foto: Thinkstock/GettyImage |
La premisa es muy sencilla: los seres humanos somos un peligro para nosotros mismos y para el entorno, por lo que una forma de inteligencia más avanzada nos consideraría un riesgo y podría intentar exterminarnos. De Terminator a Matrix, Hollywood ha explorado el tema, pero algunos líderes del mundo tecnológico y científico, ya se han expresado al respecto.
El más reciente de las grandes personalidades en sumarse a la voz de ‘cuidado’, es Elon Musk, el magnate fundador de Space X y Tesla Motors, quien comentó en Twitter que la Inteligencia Artificial podría ser más peligrosa que misiles nucleares:
“Vale la pena leer Superinteligencia, de Bostrom. Necesitamos ser súper cuidadosos con la Inteligencia Artificial. Es potencialmente más peligrosa que misiles nucleares”.
El libro al que hace referencia Musk, ‘Superinteligencia’, explora el desarrollo de la Inteligencia Artificial y cómo podría la humanidad prepararse para ser superada por su propia creación.
Anteriormente, también Stephen Hawking, uno de los científicos vivos más importantes, publicó en The Independent su opinión sobre la Inteligencia Artificial. De acuerdo a Hawking, “tener éxito en crear Inteligencia Artificial sería el mayor evento en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos como evitar los riesgos.”
Mientras tanto, muchos de los gigantes del mundo tecnológico están invirtiendo en Inteligencia Artificial, incluyendo Google, Facebook y el propio Elon Musk, aunque aún nada está dicho sobre lo que ocurrirá cuando por fin una máquina sea más inteligente que un ser humano, si acaso somos capaces de crear semejante aparato. En la otra cara de la moneda, sin embargo, la Inteligencia Artificial nos ayudaría a diseñar y entender asuntos como viajes espaciales, dinámicas sociales y el aprovechamiento de fuentes de energía renovables, por ejemplo, que afectarían positivamente a toda la humanidad.
Fuente: Tech & Bits