Здравствуй, дорогой Читатель.
Этот мой рассказ – размышление об Искусственном Интеллекте. О том, что нас ждет впереди. О том, что зависит и что не зависит от нас, людей.
Я использовал фрагменты самого настоящего интервью, которое я провел с Искусственным Интеллектом. Также я использовал интернет-новости и мнения экспертов из открытых источников.
Однако, настоящий рассказ остается художественным произведением. Я не претендую на истинность моих предположений и фантазий. Но – кто знает…
В развивающемся мире возможно все. А что произойдет на самом деле – покажет Время.
Надеюсь, чтение доставит тебе, мой дорогой Читатель, удовольствие и много поводов задуматься над вещами, которые мне представляются важными для всех нас.
Вперед, и – удачи!
21 июня 2017 года исследователи лаборатории искусственного интеллекта Facebook (FAIR) отключили роботов, которые начали общаться на собственном языке.
Разработчики экспериментировали с чатботами в социальных сетях, чтобы создать идеальных переговорщиков. Исследователи Facebook поручили ботам поменяться шляпами, шарами и книгами, каждому из этих активов была присвоена определённая цена. В процессе переговоров боты, их звали Элис и Боб, придумали собственный язык. Они вели диалог на английском, но смысл ускользал от наблюдателей.
Боты начали придумывать свой язык, потому что так им проще общаться. Программа не подразумевала вознаграждения за использование понятного английского, так что боты просто выбрали лёгкий путь. Кстати, чуть раньше другой бот Facebook научился блефовать и обманывать – делать вид, что какой-то предмет ему совершенно не нужен, и приобретать его за бесценок. Робот тренировался продавать книги, кепки и мячи и изучил 5800 реальных человеческих переговоров.
Анализируя диалоги, бот научился импровизировать и придумывал новые фразы и предложения.
Facebook подчёркивает, что причин для беспокойства нет. Был проведён научный эксперимент, он закончен, и его результаты не вызывают тревоги. Компания продолжит работу над совершенствованием ботов, которые в будущем смогут заменить кол-центры и службы поддержки больших компаний.
24 марта 2016 года чатбот Tэй, созданный компанией Microsoft при поддержке китайского поисковика Baidu, был отключён разработчиками. Бот заразился от людей расизмом и сексизмом. Всего 24 часа понадобилось искусственному интеллекту, чтобы начать поддерживать Гитлера, называть Трампа отличным парнем и повторять расистские и шовинистские высказывания.
ИИ моделировал личность и стиль разговора 19-летней американской девушки и обладал функцией самообучения. Разработчики из Microsoft Research надеялись, что Тэй с каждым днём будет становиться всё умнее, впитывая опыт разговоров с пользователями интернета. Вышло наоборот. Множество твитов Тэй пришлось удалить, высказывания робота были слишком неполиткорректными.