SI ALGUIEN LA CREA, TODOS MORIREMOS

SI ALGUIEN LA CREA, TODOS MORIREMOS

POR QUÉ LA SUPERINTELIGENCIA ARTIFICIAL ES UNA AMENAZA PARA LA HU

ELIEZER YUDKOWSKY

21,90 €
IVA incluido
En stock
Editorial:
EDICIONES DESTINO
Año de edición:
2026
Materia
Fantástica
ISBN:
978-84-233-6934-8
Páginas:
288
Encuadernación:
Rústica
21,90 €
IVA incluido
En stock
Añadir a favoritos

LA AMENAZA PARA LA HUMANIDAD DE LA IA SUPERINTELIGENTEEn 2023, cientos de expertos en inteligencia artificial advirtieron que supone un grave riesgo de extinción para la humanidad. Desde entonces, la carrera se ha intensificado: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias y concluyen que desarrollarán objetivos propios, en conflicto con los nuestros. Si llega el enfrentamiento, nos aplastarán, pero aún estamos a tiempo de frenar y diseñar políticas que garanticen nuestra seguridad. La conclusión es clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza. Este libro explica por qué, cómo y qué debemos hacer para sobrevivir. «Puede que sea el libro más importante de nuestro tiempo.» Tim Urban, Wait But Why

Artículos relacionados