Помощь в учёбе, очень быстро...
Работаем вместе до победы

Искусственный интеллект и экзистенциальные риски

РефератПомощь в написанииУзнать стоимостьмоей работы

Аналогичное по сути беспокойство сформулировано в открытом письме, подписанном ста пятнадцатью специалистами по искусственному интеллекту, с которым они обратились к ООН в 2017 г. и в котором призвали запретить разработку боевых роботов и использование летального автономного оружия. Документ поддержали эксперты из 26 стран. Подписанты предостерегают от военных действий «невиданных масштабов… Читать ещё >

Искусственный интеллект и экзистенциальные риски (реферат, курсовая, диплом, контрольная)

Разработки в области искусственного интеллекта (ИИ) ведутся во многих лабораториях мира. Отдельные элементы искусственного интеллекта прочно вошли в нашу жизнь и стали привычными: среди них программы распознавания речи, программы распознавания лиц (в аэропортах, поиск террористов, преступников). Обыденными стали навигаторы, которым мы делегируем выбор оптимального маршрута автомобиля. Умная бытовая техника: пылесос и газонокосилка, не нуждающиеся в посредничестве человека, умный холодильник, заказывающий в Интернете недостающие продукты и т. д. Искусственный интеллект не только выигрывает шахматные партии, но и побеждает чемпиона мира по игре в Го. Внедрены в практику медицинского и социального обслуживания пациентов специальные устройства, которые измеряют, записывают и отправляют по Интернету лечащему врачу данные о здоровье хронических больных и пожилых людей (артериальное давление, пульс, уровень сахара в крови у диабетиков, холестерин), работает удаленное консультирование специалистов и т. д.

Искусственный интеллект стал уже частью новейших военных разработок. Боевые дроны (беспилотники) с поражающими ракетами хотя и управляются оператором из центра, на случай «зависания» они снабжаются алгоритмом оценки ситуации и самостоятельного принятия решения. Можно ли делегировать дрону такое право? Здесь сразу возникают вопросы социальные, этические.

Примечательно, что не только социальные ученые, но и разработчики ИИ задаются подобными вопросами, оценивают, как изменится человек и окружающая социальная реальность под воздействием технологических инноваций. Физик Стивен Хокинг считал, что невозможно предсказать, чего мы могли бы достичь в случае усиления нашего интеллекта искусственным. С одной стороны ИИ может быть использован для борьбы с болезнями и искоренением бедности, и это преобразит все аспекты нашей жизни. С другой стороны, создание ИИ может стать и последней технологической революцией, если человечество не научится контролировать риски.

Аналогичное по сути беспокойство сформулировано в открытом письме, подписанном ста пятнадцатью специалистами по искусственному интеллекту, с которым они обратились к ООН в 2017 г. и в котором призвали запретить разработку боевых роботов и использование летального автономного оружия. Документ поддержали эксперты из 26 стран. Подписанты предостерегают от военных действий «невиданных масштабов, которые будут развиваться со скоростью, которую человечество не может осознать», и призывают ООН запретить автономное летальное оружие наравне с химическим — в соответствии с конвенцией ООН 1983 г.

Один из подписантов, Илон Маек, будучи сторонником идеологии невмешательства государства в дела бизнеса, говорит о том, что в данном случае государству следует активнее не просто реагировать, а централизованно регулировать ситуацию, поскольку «к тому времени, когда мы начнем реагировать, уже будет слишком поздно…». И далее: «Создавая искусственный интеллект, мы призываем демона. Мы должны быть крайне осторожны с искусственным разумом. Теоретически он может быть опаснее ядерного оружия»[1]. Все больше ученых считают, что необходимо создание регулятивного контроля по данной тематике — возможно, как на национальном, так и на международном уровне. К выстраиванию системы регулятивного контроля необходимо привлекать не только профильных специалистов, но и социальных ученых: социологов, психологов.

Итак, повторяем фразу цитируемого физика о том, что создание ИИ может стать последней технологической революцией, если человечество не научится контролировать риски. Какие риски видят ученые?

Хотя и предлагается искусственному интеллекту — «неангажированому», самообучающемуся, обладающему неограниченным объемом памяти и высочайшей скоростью обработки информации — делегировать право принятия решений, есть многие области, где передавать ответственность машине просто нельзя. В том числе уже упомянутое применение автономного летального оружия. ИИ может спровоцировать войну, если один из супер-компьютеров нажмет «красную кнопку», решив, что боевые действия — лучший способ добиться своих целей. Искусственный интеллект может быть задействован не только в «горячей», но и в информационной войне. Действуя в Сети, распространяя фейковые новости и пресс-релизы, подделывая учетные записи электронной почты, манипулируя фактами, ИИ способен конструировать события, влиять на сознание и поведение людей.

Нельзя делегировать машине принятие решений, определяющих судьбы людей: например, вынесение судебных приговоров. Отдельная сфера — этические вопросы, касающиеся здоровья человека.

  • [1] Цит. по: Маек: Искусственный интеллект является фундаментальным риском длясуществования человеческой цивилизации // Фраза.юа. 2017. 17 июля. URL: https://fraza.ua/news/261 086-mask-iskusstvennyj-intellekt-javljaetsja-fundamentalnym-riskom-dlja-suschestvovanija-chelovecheskoj-tsivilizatsii.
Показать весь текст
Заполнить форму текущей работой