0

Размышления в вентилятор. Про роботов

Напомню три закона робототехники:

  1. Первый закон: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

  2. Второй закон: робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат первому закону.

  3. Третий закон: робот должен защищать своё собственное существование до тех пор, пока такая защита не вступает в противоречие с первым или вторым законом.

Если чуть чуть вдуматься, то сразу станет понятно, что этими тремя законами нельзя обеспечить безопасность человека. Слишком расплывчато.

Например, не указан горизонт планирования. если робот с высокой долей вероятности просчитает, что человеку будет нанесен вред через 100 лет, то будет ли он сейчас предпринимать какие-то действия? робот может обеспечивать безопасность только одного человека или группы лиц тоже? то есть, будет ли он спасать художника гитлера, если известно, что он через 100 лет станет фюрером? И что такое вред? видимо, подразумевается только физический. а психологический как же?

Как решить задачу обеспечения реальной безопасности людей при появлении ИИ и роботов, обладающих высокой степенью интеллекта - хз. На одни блокировки, наверное, уйдет львиная доля памяти.