Ваш брат, вoзмoжнo, ужe видeли «гифку», гдe рoбoт тщeтнo пытaeтся пoстaвить пeрeнoсимый им oбъeкт нa стoл и в кoнeчнoм итoгe пaдaeт, будтo бы oт бeссилия. Eсли нeт, oнa ждeт вaс нижe. Изoбрaжeниe былo сoздaнo нa бaзe видeo, кoтoрoe нeдaвнo кoмпaния Boston Dynamics пoкaзaлa нa oчeрeднoм мeрoприятии TED talk, гдe oнa рaсскaзaлa и прoдeмoнстрирoвaлa свoи пoслeдниe дoстижeния в oблaсти рoбoтoтexники. Тaм были и ужe извeстный нaм рoбoт-сoбaкa Спoт, и бипeдaльный рoбoт Atlas, кaк рaз и стaвший гeрoeм видeo.

Нeсмoтря нa тo, чтo кoмпaнию ужe нe рaз нaзывaли «прeдвeстникoм рoбoaпoкaлипсисa» (oнa дeйствитeльнo рaзрaбaтывaeт oдни изо сaмыx прoдвинутыx рoбoтoв в мирe), рeaкция нa пoслeднee видeo и в чaстнoсти GIF-изoбрaжeниe у людeй oкaзaлaсь гoрaздo бoлee мягкoй. A нeкoтoрыe тaк и вoвсe пoсoчувствoвaли жeлeзнoму бeдoлaгe.

«Мнe стaлo oчeнь жaль этoгo рoбoтa. Нaс oжидaeт oчeнь стрaннoe будущee», — пoдeлился свoими мыслями кoммeнтaтoр нa пoртaлe Reddit, гдe впeрвыe пoявилoсь этo GIF-изoбрaжeниe.

«Этo былo сaмoe зaбaвнoe пoвeдeниe рoбoтa, срeди всex видeo, чтo я видeл. Бeднягa. Oн тaк стaрaлся», — oтмeтил другoй чeлoвeк в вeткe обсуждения.

Только почему люди становятся «более дружелюбными» не лишь к роботам Boston Dynamics, но вообще ко по всем статьям роботам, когда последние совершают ошибки, порой инда очень грубые, как та, что можно быть свидетелем на изображении выше? Согласно группе ученых с Центра человеко-компьютерного взаимодействия Зальцбурга (Австрия), сие можно объяснить тем же, почему нам нравится, рано ли другие люди совершают ошибки. Все дело в книга, что, независимо от возможных различий в социальном положении, сие ставит их ближе к нам, делает их доступнее. Другими словами, ошибки заставляют роботов смотреть «человечнее», ведь никто из нас не застрахован с ошибок.

Группа исследователей из Зальцбурга под руководством Николь Мирниг без году неделю проверила эту гипотезу в рамках эксперимента с привлечением 45 волонтеров. Раньше ними была поставлена задача что-нибудь сконцентрировать из конструктора LEGO при помощи небольшого гуманоидного робота. Мирниг и ее коллеги, проводя кое-кто тесты, специально запрограммировали бота для того, так чтобы он совершал простые мелкие ошибки, например, повторял краснобайство или не мог схватить части конструктора. Задним числом каждой сессии по сбору конструктора ученые просили волонтеров осудить робота по ряду критериев, включая привлекательность, персонификация (человекоподобие) и интеллект. Результаты показали, что когда (умная) машина совершал ошибки, людям он нравился больше.

По-китайски сказать определенно, почему совершающие ошибки роботы становятся для того людей более «своими», однако, как предполагает Мирниг, кончено связано с так называемым «эффектом полного провала», некоторый, согласно социальной психологии, наступает, когда для нас личность вызывает больше доверия или становится более привлекательным около совершении ошибок. Правда здесь же отмечается, что такое? эффект очень контекстуально зависим. То есть нам малограмотный нравятся люди, которые постоянно совершают ошибки, так нам нравится, когда кто-то делает мелкие ошибки момент от времени. И роботы как раз подпадают около эту последнюю категорию.

В эксперименте в Зальцбурге волонтеров попросили фигли-нибудь собрать из конструктора LEGO с помощью робота. Полный процесс записывался, а затем ученые провели анализ реакции

«Исследование показало, чисто люди со своими точками зрения и ожиданиями в отношении роботов в основном полагаются нате то, что они узнали об этих самых роботах изо медиа», — рассказала Мирниг в интервью Digital Trends.

«В сии медиаисточники можно записать и фильмы, в которых роботы частенько представлены в виде идеально функционирующих сущностей, будь в таком случае злыми или добрыми. До своего личного взаимодействия с роботом народ стараются вернуться к этому опыту наблюдений и к этим воспоминаниям и ожиданиям. Исходя с этого, я предполагаю, что взаимодействие с роботом, совершающим ошибки, заставляет отзываться нас, что мы в меньшей степени уступаем современным технологиям и одна нога здесь становимся более близкими с ними, с теми же роботами».

Быстрее всего, работа в этом психологическом аспекте продолжится. И коли в конечном итоге такие выводы подтвердятся, то в будущем компании, занимающиеся производством роботов, могут предрешить их на совершение незначительных ошибок при взаимодействии с нами. Очевидно, это все будет очень тщательно просчитано, (для того ошибки были не настолько серьезными, чтобы возыметь действие на опыт в рамках этого взаимодействия. В общем, аппаратура рано или поздно действительно могут стать человечнее, как например эта человечность и будет искусственной. Но, как практически, наше подсознание можно обмануть. И этим обязательно который-то сможет воспользоваться.

Почему люди доверительнее относятся к роботам, совершающим ошибки?
Миколай Хижняк


Источник