bookmate game
Стюарт Рассел

Совместимость: Как контролировать искусственный интеллект

Сообщить о появлении
Загрузите файл EPUB или FB2 на Букмейт — и начинайте читать книгу бесплатно. Как загрузить книгу?
    Svetlana Rodriguez Arciniegasцитируетв прошлом месяце
    Историю развития ИИ движет одно-единственное заклинание: «Чем интеллектуальнее, тем лучше». Я убежден, что это ошибка, и дело не в туманных опасениях, что нас превзойдут, а в самом нашем понимании интеллекта.
    Svetlana Rodriguez Arciniegasцитирует2 месяца назад
    Если мы используем для достижения своих целей механического посредника, в действие которого не можем эффективно вмешаться… нам нужна полная уверенность в том, что заложенная в машину цель является именно той целью, к которой мы действительно стремимся.
    Svetlana Rodriguez Arciniegasцитирует2 месяца назад
    Машины разумны настолько, насколько можно ожидать, что их действия приведут к достижению поставленных ими целей.
    Gigi Janelidzeцитируетв прошлом году
    Интеллект без знаний — все равно что двигатель без топлива.
    Дмитрий Вечеровцитируетв прошлом году
    Машины полезны настолько, насколько можно ожидать, что их действия достигнут наших целей.
    Дмитрий Вечеровцитируетв прошлом году
    Люди разумны настолько, насколько можно ожидать, что наши действия приведут к достижению поставленных нами целей.
    b9490982283цитируетв прошлом году
    никакое автономное транспортное средство сегодня не знает, что людям не нравится, когда их убивают.
    tortugaцитирует2 года назад
    Допустим, Гарриет хочет совершить восхождение на Эверест. Консеквенциалистский Робби решил бы попросту поднять ее и высадить на вершину Эвереста, раз это ее желаемое последствие. По всей вероятности, Гарриет будет решительно против такого плана, ведь это не позволило бы ей преодолевать трудности, следовательно, ощутить восторг от результата, достигнутого решением сложной задачи собственными силами. Очевидно, правильно сконструированный консеквенциалистский Робби понял бы, что последствия включают все переживания Гарриет, а не только конечную цель. Он мог бы захотеть оказаться рядом в случае непреодолимых сложностей, а также гарантировать, чтобы Гарриет получила необходимую экипировку и подготовку, но он также согласился бы с правом Гарриет подвергнуть себя беспрецедентному риску смерти.
    tortugaцитирует2 года назад
    У нас есть мораль и этика, потому что на Земле живет больше одного человека. Подход, наиболее близкий к пониманию того, как следует разрабатывать ИИ-системы, часто называют консеквенциализмом: идея состоит в том, что выбор должен делаться, исходя из ожидаемых последствий. Существует еще два основных подхода: деонтологическая этика и этика добродетели. В самых общих чертах они рассматривают соответственно нравственный характер действий и нравственный характер индивидов, причем, в общем-то, в отрыве от последствий выбора3. Поскольку у нас нет никаких свидетельств самосознания машин, я не вижу особого смысла в том, чтобы создавать машины, добродетельные в любом из этих смыслов, если последствия крайне нежелательны для человечества. Иными словами, мы создаем машины, действия которых приводят к каким-то последствиям, и хотим, чтобы эти последствия были для нас предпочтительны
    tortugaцитирует2 года назад
    Робби нашел оригинальное решение проблемы Гарриет, но его действия отрицательно сказались на других людях. Если бы Гарриет отличали высокая нравственность и альтруизм, то Робби, целью которого является удовлетворение предпочтений Гарриет, и не задумался бы о подобной сомнительной схеме, но что, если Гарриет наплевать на других? Тогда Робби без колебаний задерживал бы авиарейсы.
fb2epub
Перетащите файлы сюда, не более 5 за один раз