Suscríbete a nuestro boletín

Si alguien la crea, todos moriremos "Por qué la superinteligencia artificial es una amenaza para la humanidad"

Si alguien la crea, todos moriremos "Por qué la superinteligencia artificial es una amenaza para la humanidad".

Autor/es

  • EAN: 9788423369348
  • ISBN: 978-84-233-6934-8
  • Editorial: Destino, Ediciones
  • Colección: Imago Mundi
  • Encuadernación: Rústica
  • Medidas: 15 X 23 cm.
  • Páginas: 286

21,90 €

Disponible

Desde hace unos años, cientos de expertos en inteligencia artificial vienen advirtiendo que esta supone un grave peligro de extinción para la humanidad. Sin embargo, la carrera no ha dejado de intensificarse: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias, y su conclusión es cristalina: basta una mínima desviación para que desarrollen objetivos propios en conflicto con los nuestros. Si llega el momento, no habrá marcha atrás, pero aún estamos a tiempo de frenar y diseñar políticas que garanticen nuestra seguridad. La solución está clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza. Este libro explica por qué es importante que nos protejamos de la IA, cómo podrían sucederse los acontecimientos y qué debemos hacer para evitar que nos domine.

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitar la navegación. Si continúa navegando consideramos que acepta su uso.

aceptar más información