yoginka: (thinking)
Уже несколько раз писала об этом. Статей попадается много, но продвижений пока не видно, если не считать внушительного списка подписей авторитетов.

Еще интересная статья:
http://slatestarcodex.com/2015/05/29/no-time-like-the-present-for-ai-safety-work/

Понравился аргумент скептиков:
"if Alan Turing had gotten it into his head to try to solve it in 1945, his ideas might have been along the lines of “Place your punch cards in a locked box where German spies can’t read them.”"

Несколько новых, неожиданных аспектов проблемы, причем в паре из них мне показались и кое-какие надежды на возможные подходы к решению вопросов безопасности:

аналогия с бесконечной стимуляцией гипоталамуса (Problem 1: Wireheading);
аналогия с религией (Problem 2: Weird Decision Theory).
yoginka: (thinking)
О многом из этого уже сохраняла ссылки, а это краткое обобщение результатов:
http://www.technologyreview.com/news/533686/2014-in-computing-breakthroughs-in-artificial-intelligence/

Там есть еще интересные ссылки.

Как страшно жить (http://www.technologyreview.com/view/529396/software-that-can-see-will-change-privacy-forever/):
"It’s now possible to not only reliably spot you in photos, but also tell what you’re doing. "
yoginka: (thinking)
"The risk of something seriously dangerous happening is in the five year timeframe. 10 years at most. "

(http://www.loadthegame.com/2014/11/19/elon-musk-has-serious-concerns-about-artificial-intelligence/)

И Стивен Хокинг об этом недавно статью написал с предупреждениями.


Это были мнения авторитетов. Далее мои мысли на эту тему.

Это уже не отдаленное будущее из области фантастики. И сценарий не такой, как в большинстве фантастических произведений. Оказалось все даже и пострашнее: не отдельные взбунтовавшиеся роботы, которых можно физически уничтожить в случае чего, а распределенные по всему интернету системы искусственного интеллекта.

Мы уже имеем потерю контроля даже в обычных программах без ИИ. Иначе все "баги" сразу бы исправлялись. Вопрос стоит не о том, делать ли ИИ, а о том, какие задачи ему нельзя доверять. Например, если фейсбук ошибается в своих решениях и неверно предполагает, кого ты знаешь, то от этого ущерба нет. Или если Гугл не угадывает, что именно ты ищещь, и предлагает не вполне адекватные результаты поиска на первом плане. А вот если система медицинской диагностики ошибется, и никто этого не заметит, потому что все считают, что система все лучше знает, то результаты могут быть фатальными.

Еще более страшный сценарий связан с тем, что эти системы, живущие в интернете, являются самообучающимися. Для обучения они используют, среди прочего, и опыт, полученный из запросов к ним. Вполне можно предположить, что злоумышленники могут использовать это для постепенного "развращения" системы и незаметного отклонения ее в нужную для себя сторону. А когда это станет заметно, может быть уже поздно.
yoginka: (thinking)
(Или "как страшно жить")

Вчера прочитала эту статью:
http://www.wired.com/2014/10/future-of-artificial-intelligence/
И сразу стало жутковато, вспомнились разные антиутопии, хотя в статье нет ни намека на такое настроение. А ведь такую распределенную на "облаках" систему не выключишь так просто. Да и обойтись без нее уже не могут даже сейчас, а что уж говорить, если на ней основывать медицинскую диагностику.

А вот сегодня попалось это:
http://www.computerworld.com/article/2840815/ai-researchers-say-elon-musks-fears-not-completely-crazy.html

February 2017

S M T W T F S
   1234
5678 91011
12131415161718
19202122232425
262728    

Links

Syndicate

RSS Atom

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 28th, 2017 03:03 pm
Powered by Dreamwidth Studios