Sprijinim refugiatii din Ucraina. Doneaza si tu pentru Crucea Rosie Romana in sprijinul lor. Orice suma conteaza.

19:55, 29.04.2024

Austria a cerut luni noi eforturi pentru a reglementa utilizarea inteligenţei artificiale în sistemele de arme care ar putea crea aşa-numiţii ”roboţi ucigaşi”

Austria a cerut luni noi eforturi pentru a reglementa utilizarea inteligenţei artificiale în sistemele de arme care ar putea crea aşa-numiţii ”roboţi…

Cu tehnologia AI care avansează rapid, sistemele de arme care ar putea ucide fără intervenţia umană se apropie din ce în ce mai mult de realitate, implicând provocări etice şi juridice despre care majoritatea ţărilor…




08:55, 16.02.2024

Richard Branson, nepotul lui J. Robert Oppenheimer şi alte personalităţi cer printr-o scrisoare deschisă oprirea catastrofei AI şi a celei climatice

Richard Branson, nepotul lui J. Robert Oppenheimer şi alte personalităţi cer printr-o scrisoare deschisă oprirea catastrofei AI şi a celei climatice

Zeci de personalităţi de rang înalt din mediul de afaceri şi din politică fac apel la liderii mondiali, prin intermediul unei scrisori deschise, să abordeze riscurile existenţiale ale inteligenţei artificiale şi…




16:22, 28.07.2015

Mii de oameni de stiinta, printre care Stephen Hawking si Steve Wozniak, cer interzicerea robotilor ucigasi

Mii de cercetatori si personalitati, printre care celebrul astrofizician britanic Stephen Hawking si cofondatorul Apple Steve Wozniak, au lansat marti un apel pentru interzicerea armelor ofensive autonome cunoscute…




12:00, 25.01.2015

Sase scenarii catastrofice care ar putea conduce la extinctia oamenilor, realizate de unele dintre cele mai stralucite minti ale planetei, printre care…

Un grup de prestigiosi oameni de stiinta din Marea Britanie, reuniti in cadrul Centrului de Studii pentru Riscul Existential - The Centre for the Study of Existential Risk (CSER) - a realizat o lista a potentialelor…