Родственница найтсталкера?
Шикарная лекция про то,
как работает мышление, и как состояние мыслительного аппарата, когда это мышление работает, достигается в процессе обучения. Не смотрите на клик-бэйтовый заголовок — это всего лишь дань текущему времени и трендам. Автор зрит в корень и пытается докопаться до сути вопроса. Изложение занимательное, с наглядными примерами и ссылками на исследования.
Интересное
обсуждение на тему ИИ. Автор — видео американец-веган, а его гость — какой-то популярный израильский историк-публицист, поэтому там куча клюквы на тему Раисси, последствия рассматриваются сквозь призму типично американских ценностей, а сам термин ИИ разных местах обсуждения используется в совершенно разных смыслах (например, как ещё не достигнутый общий ИИ в конце обсуждения или просто как примитивные алгоритмы принятия решений в начале, что намекает на то, что оба собеседника не являются какими-либо специалистами в вопросах создания современных нейронных сетей). Однако, поднимаемые вопросы представляют интерес, заставляют задуматься и актуальны вне зависимости от того, какой именно ИИ имеется в виду. Обсуждение подкрепляются жизненными примерами.
Например, 10-15 лет назад алгоритмы фейсбука проводили многолетний социальный эксперимент над миллиардами человеческих подопытных кроликов, целью которого было увеличить характеристику использования соцсети, называемую
user engagement, то есть, грубо говоря, количество просмотров или "степень приклеенности" пользователей к экрану/монитору. Вывод, к которому в результате этого эксперимента пришли алгоритмы, заключается в том, что самым простым способом достижения требуемого является нажатие в мозгу человека на одну из трёх кнопок: жадность, ненависть, страх (а лучше на все три сразу). Клик-бэйтовость названия этого видео как раз раскрывается как нажатие на последнюю кнопку. Весьма вероятно, что про эту "особенность" человека "разумного" знали ещё древние правители, но в данном случае алгоритмы не только нашли быстродействующий способ, но и успешно воплотили его в жизнь.
Одним из следствий этого "удачного воплощения в жизнь" стали
геноцид и этнические чистки 2016-2018 годов в стране Мьянма (ранее Бирма, сейчас находящейся в процессе гражданской войны) в юго-восточной Азии по отношению к народу Рохинджа, в результате которых были тысячи убитых, десятки тысяч изнасилованных и почти миллион беженцев. Понятное дело, алгоритмы соцсетей не были единственной причиной, здесь случай, когда семена злых цветов упали на плодородную землю, взошли и бурно зацвели. Однако, пока машина фейсбука усердно продвигала в стране конспирологические теории и фальшивые новости, подогревающие ненависть и накал страстей, корпоративные начальники в штаб-квартире не только не контролировали свои алгоритмы, или не имели работников, говорящих на Бирманском языке, чтобы проверить наличие "ситуации", они даже не знали про существование этой страны (как и я до сегодняшнего дня). Такой вот "забавный" пример неумышленных последствий внедрения технологий.