Я не психолог по образованию, и мне пришла в голову вот какая мысль. Любое создание с пометкой ИИ, это программа. Написанная людьми. Программы пишут разнообразные программисты. Сначала работают архитекторы, создавая основные алгоритмы, ставят цели, прописывают мотодики. Потом в работу вступают кодеры, которые уже пишут основные языковые коды, наращивая на скелет мышцы, основные органы и кожу. Там же еще отдельные программеры создают внешний вид и систему взаимодействия программы с пользователем. И где-то, на каком-то участке (и очень интересно на каком) должен принять участие психолог или даже группа психологов, которая должна вложить в программу то, как она должна работать. У меня всегда возникает вопрос насколько компетентны были психологи, вложившие свои знания в ИИ.
Хотя, честно говоря, от слов Искуственный Интеллект меня немного коробит. Потому, что как такового, интеллекта там нет. Есть сложная программа, имитирующая работу яко-бы интеллекта. Не так давно, был скандальчик с ИИ колонкой "умной Алисой" от Яндекс, которая отвечая на вопрос про мультик "Маша и Медведь" выдала следующее (цитата)
«Она всего лишь призрак девочки, именно поэтому она не растет, и видеть ее могут только животные. Родители же не смогли выдержать потери ребенка и уехали, оставив пустой дом. А мучает Маша медведя, потому что он и лишил ее жизни»,
После того, как в дело вмешалась омбундсмен по делам детей, в Яндексе что-то поменяли в алгоритмах. Стало лучше (цитата)
После скандала с ответом умной колонки «Алиса» изменила свой ответ на вопрос о героине мультфильма «Маша и Медведь». Станция теперь придерживается версии, что родители девочки забыли ее и уехали в город, наподобие сюжета фильма «Один дома».
Согласно ответу «Алисы», несмотря на то, что Маша осталась одна в лесу, она не унывает, потому что «достает» медведя.
«(Родители Маши. — NEWS.ru.) уехали на поезде в город с остальными детьми. То есть можно говорить об аналогии с фильмом „Один дома“. Но жизнерадостная героиня не унывает и не печалится по этому поводу. Ей есть чем заняться — доставать медведя и влипать в разные истории», — говорит «Алиса».
Лучше? Правда? То есть детям фактически объясняют, что родители просто так могут забыть детей. Рядовая история, подумаешь, забыли... А основная задача ребенка доставать.... Мне кажется тут психологи даже близко не проходили. Но почему так получилось? В Яндексе ответили (дословно)
Из-за встроенного алгоритма обучения...
Бинго! Причина оказывается алгоритм, а не люди, которые путем кода языка написания программы объясняли алгоритму как он должен себя вести в той или иной ситуации. Да, люди писавшие программу, не объяснили ей, в достаточной мере что такое первоисточник. Поэтому получив запрос о семье Маши из мультика, в котором ничего про это нет, программа начала генерить нечто, вместо того чтобы сгенерировать внутри себя запрос "Маша и Медведь", пошарить по сети, собрать данные и разобраться, что есть сказка "Маша и Медведь", что есть мультики. Что первоисточник - сказка, где четко прописаны родственные отношения Маши.
Да, программы с пометкой ИИ обучаемы. И если бы взрослый человек указал бы Алисе на ошибку, попросил бы ее найти сказку, прочитать ее, связать это с мультиком, то последовательным набором действий, он бы привел Алису к нормальному ответу. Но ребёнок этого не сделает. Он прослушает, запомнит и сделает свои детские выводы. КОторые потом, могут неожиданно вылиться во что-то весьма неожиданное.
Любая прога с пометкой ИИ - это творчество группв людей. Доверять ее работе сразу, не проведя долгого и тщательнейщего тестирования ни в коем случае нельзя, даже, если она на первый взгляд, дает хороший результат. Помните. я выкладывала серию фото, как меня видит нейросеть по описанию? ВРоде бы качественные картинки были. Но... Обратите внимания на эту:
Вроде бы всё нормально. Обратите внимание на фрагмент с ногами:
У человека таких ног не бывает
Или третий пример, когда американские военные создали программу ИИ для ударного дрона и обкатывали их на компьютере, дрон сам нанес удар по цели. Когда подали команду запрета удара после определения цели (ну всякое же бывает, передумали), дрон развернулся и нанес удар по оператору, который дал запрет. После того, как дрону запретили наносить удар по оператору, он нанес удар по антенне, передающей сигнал запрета от оператора. Алгоритм просто искал способ устранить причину, которая мешала ему выполнить изначальную задачу - уничтожение цели. То есть, проблема алогритма - архитектуры программы.
К чему это всё? К пониманию тщательности проверки адекватности работы любого ИИ, поскольку это не бог и даже не человек, а лишь результат творчества человека. Ни один алгоритм не способен работать идеально в многообразии возможных ситуаций. При этом, на архитекторах лежит огромная ответственность. Особенно, когда от работы ИИ могут зависеть жизни или здоровье людей. Всё это очень новое, очень пока сырое, не ограниченное законами и нормативными актами. Просто не доверяйте и будьте предельно внимательны играя с ИИ. ИИ не ведает что творит.
Отредактировано Лила (29.10.24 11:11)
- Подпись автора
ॐ त्र्यम्बकं यजामहे सुगन्धिं पुष्टिवर्धनम् उर्वारुकमिव बन्धनान्मृत्योर्मुक्षीय माऽमृतात्