Размышления в вентилятор. Про роботов
Напомню три закона робототехники:
Первый закон: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Второй закон: робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат первому закону.
Третий закон: робот должен защищать своё собственное существование до тех пор, пока такая защита не вступает в противоречие с первым или вторым законом.
Если чуть чуть вдуматься, то сразу станет понятно, что этими тремя законами нельзя обеспечить безопасность человека. Слишком расплывчато.
Например, не указан горизонт планирования. если робот с высокой долей вероятности просчитает, что человеку будет нанесен вред через 100 лет, то будет ли он сейчас предпринимать какие-то действия? робот может обеспечивать безопасность только одного человека или группы лиц тоже? то есть, будет ли он спасать художника гитлера, если известно, что он через 100 лет станет фюрером? И что такое вред? видимо, подразумевается только физический. а психологический как же?
Как решить задачу обеспечения реальной безопасности людей при появлении ИИ и роботов, обладающих высокой степенью интеллекта - хз. На одни блокировки, наверное, уйдет львиная доля памяти.