OpenAI боится повторения сценария "Терминатора"
OpenAI, компания по исследованию ИИ (ChatGPT), опубликовала сообщение в блоге, которое даёт представление о том, как компания будет справляться с задачами по созданию и управлению AGI (Artificial General Intelligence) - системами искусственного интеллекта, способными выполнять любые задачи, которые под силу человеку, или даже лучше.
В сообщении OpenAI сообщает, что с AGI могут возникнуть потенциальные риски и неопределенности, такие как неправильное использование, несчастные случаи и даже разрушение общества. Может даже возникнуть проблема "Терминатора". Для решения этой проблемы OpenAI предложила ряд законов и принципов, которыми она будет руководствоваться в своей работе над AGI:
Развертывание и изучение менее мощных систем ИИ в реальном мире для получения опыта и обратной связи;
Демократизация доступа к ИИ и управление им;
Обеспечение того, чтобы системы ИИ действовали в соответствии с человеческими ценностями и предпочтениями;
Укрепление институтов мира для согласования широких границ использования и регулирования ИИ;
Обмен информацией о прогрессе ИИ с общественностью и обращение к различным заинтересованным сторонам с просьбой внести свой вклад.
При этом OpenAI также предупреждает о том, что все непредсказуемо, и даже у самой компании нет всех ответов и решений потенциальных проблем в будущем, особенно после того, как AGI станет мейнстримом. Компания заявляет, что в долгосрочной перспективе разговор о том, как управлять этими системами, как справедливо распределить их преимущества и как справедливо разделить доступ, просто необходим.
Больше новостей про искусственный интеллект