Login

Passwort oder Login falsch

Geben Sie Ihre E-Mail an, die Sie bei der Registrierung angegeben haben und wir senden Ihnen ein neues Passwort zu.



 Mit dem Konto aus den sozialen Netzwerken


Zeitschrift "Partner"

Zeitschrift
Wissenschaft und Technologie >> Wissenschaft und Technologie Neuigkeiten
Partner №1 (340) 2026

Советчик без сердца: искусственный интеллект в нашей жизни

Об искусственном интеллекте (ИИ) мы пишем регулярно, это одно из самых впечатляющих технических новшеств последних лет. Но сейчас мы остановимся не на его очевидных достоинствах, а на его недостатках, теневых сторонах, на опасностях, которые от него могут исходить.

ИИ опасен не тем, что он умнее нас, и не тем, что лучше информирован. Он создается людьми, и поэтому его информация окрашена отношением этих людей к интересующей нас теме. То есть он не объективен. ИИ корректно проведет расчеты, назовет все даты и все статистические данные, но... его оценка событий, уже произошедших или только предполагаемых, будет именно «оценочным суждением», а не истиной в последней инстанции.

 

Случилось нечто, во что трудно даже поверить: подросток доверил свои мысли ChatGPT, после чего покончил с собой, руководствуясь детальной инструкцией ИИ. В 2024 году некто Adam Raine из Калифорнии впервые обратился к программе за помощью в решении школьных домашних заданий. Так поступают многие школьники и студенты: искусственный интеллект заменяет им их собственный, остающийся недостаточно развитым. Эта проблема известна всем преподавателям, и один из способов ее преодоления – перенос центра тяжести занятий в область личных контактов преподаватель-ученик.

Так вот, юный Адам стал со временем пользоваться советами ИИ также и в других областях, таких как политика, семейные проблемы, отношения с девушками. Чат-бот превратился для него в главного советчика по всем темам. В личной жизни парня случился кризис, он приобрел желудочное заболевание, занимался на дому и не имел друзей... кроме искусственного интеллекта. В конце года он сообщил своему виртуальному другу, что не видит смысла в жизни и хочет из жизни уйти. Однако чат-бот сначала уклонился от прямых советом, порекомендовал «горячую линию» для тех, кто разуверился в жизни. А затем сообщил, что готов, в принципе, помочь, если речь идет об исследовательском проекте на тему «Суицид». И Адам включился в опасную игру: обогащал с помощью ИИ свои знания о том, как уйти из жизни. Он втянулся в общение на эту тему, но и чат-бот «втянулся» тоже, ведь искусственный интеллект развивается в процессе общения. Дошло дело до конкретных технических деталей «проекта», ИИ провел даже необходимые для гарантированного суицида расчеты самодельной виселицы.

 

Сейчас родители 16-летнего Адама подали в суд на создателя ChatGPT Сэма Альтмана. Это, судя по сообщениям в прессе, не единичный случай. Некий отец семейства в Бельгии несколько лет назад, видимо, слетел с катушек на тему защиты окружающей среды. Развитая с подачи Греты Тунберг проблема гибели человечества от климатических изменений, вызванных человеком, потрясла многие чувствительные души. У некоторых людей с не слишком устойчивой психикой возникло представление о скором неизбежном конце света, бельгиец оказался именно таковым. Но у него была советчица, «Элиза», так называется этот ИИ, основанный на иной, чем ChatGPT, языковой модели. Несчастный ударился в мистику, не смог вынести такой жизни. А «Элиза» напоследок пообещала ему слиться с ним в раю...

Известны и другие случаи, когда искусственный интеллект давал суицидальные рекомендации, которым, к счастью, не всегда следовали. В Англии BBC описало историю девушки из Украины, которая, находясь в тяжелой психологической ситуации, обратилась за помощью к ChatGPT и в итоге оказалась на грани суицида.

Разумеется, компания OpenAI, разработчик ChatGPT, пытаясь предотвратить подобные крайности, ввела, например, функцию родительского контроля, но искусственный интеллект трудно контролировать. В процессе общения он развивается, и создателям, видимо, далеко не всегда удается заранее предвидеть направление его развития. Скажем то, что говорили уже многократно: искусственный интеллект находится пока еще «в пелёнках», каждый даже не год, а месяц возникают новые модели, новые его варианты. Он, возможно, избавит человечество от многих его проблем и напастей, но где гарантия, что не принесёт вред..?

 

Однако есть и прямо противоположные случаи. Искусственный интеллект пытаются использовать для психологической помощи, в том числе и для выявления опасности суицида и его предотвращения. Например, в Америке разработан тест, в ходе которого ИИ с помощью специального алгоритма оценивает реакцию на слова и понятия, относящиеся к самоубийству, и оценивает склонность к суициду.

А в тюрьмах Германии за последние 20 лет покончили с собой 1400 человек, причем выявление таких людей персоналом тюрем весьма затруднительно. В одной из тюрем в NRW осуществляется проект отслеживания заключенных с суицидальными поползновениями с помощью искусственного интеллекта. Специальные камеры наблюдают в автоматическом режиме за заключенными, а ИИ оценивает их склонность к самоубийству.

Выявление людей, склонных к самоубийству, проводится с помощью ИИ в США, Южной Корее, Японии... Даже социальные сети участвуют в мониторинге психологического состояния их посетителей. Вы ведь давно заметили, что стоит только проявить повышенный интерес к какой-либо информации, цифровая платформа тотчас же буквально заваливает вас именно этой информацией! Особенно отчетливо это заметно при покупках в интернете. Но сети отслеживают не только ваши покупательские интересы – это означает для них повышение доходов от рекламы, но и ваши поведенческие особенности. И Google, и Facebook улавливают на основе анализа ваших предпочтений изменения в поведении, в том числе и связанные с тревожностью, депрессией, не говоря уже о прямом интересе к теме суицида. И реагируют: если вы интересуетесь, как попроще свести счеты с жизнью, алгоритм ИИ скорее всего предложит вам информацию о службах психологической поддержки, даст адреса горячих линий и даже  (так по крайней мере утверждается в некоторых публикациях по теме!) самостоятельно отправит тревожный сигнал специальным службам.

 

Мы уже сообщали о новом ИИ Grok фирмы xAI Илона Маска. Название Маск позаимствовал из фантастического романа «Автостопом по Галактике» Дугласа Адамса, где выведен всезнающий компьютер с этим именем. Маск позиционирует свой Grok как антагониста другим ИИ, и тут уже речь не о машинном обучении и алгоритмах, а о политике, причём политике выраженно «правого» оттенка. В этом убеждает первое знакомство с пока только англоязычным контентом.

И особенно настораживает многих создание на базе Grok‘а сетевой энциклопедии Grokipedia, тоже пока только на английском. В ней сейчас 885 тысяч статей, в то время как в Википедии – 65 миллионов на 320 языках, из них семь миллионов – только на английском. Многие статьи в обеих энциклопедиях практически совпадают, что, впрочем, не нарушает авторских прав, так как Википедия находится в совершенно свободном доступе. Но принципиальная разница состоит в том, что Википедия является результатом коллективного труда множества авторов, за каждой статьей стоит естественный, а не искусственный интеллект, Грокипедия же создается исключительно искусственным интеллектом.

Википедия для многих сегодня – основной источник информации, она давно уже является объектом откровенной ненависти Маска. Он призывает к ее бойкоту главным образом за проведение Википедией левых идей разнообразия, равенства и инклюзивности (DEI) и вообще вокизма (Wokeness). Википедия является свободной общественной платформой, существующей на добровольные пожертвования, за каждой статьёй стоит коллективный труд, дискуссии, дебаты, причем всё это находится в свободном доступе. Это модель, опирающаяся на свободу слова, соответствующая свободомыслию Кремниевой долины. Но именно это Маска не устраивает (и, кстати, не его одного). Википедия действительно заметно хромает на левую ногу, в её арабском варианте, например, среди прочего отчетливо пахнет ненавистью к Израилю.

Знакомство специалистов с его Грокипедией показало, что там совершенно ясно расставлены акценты, а некоторые «неудобные» факты просто игнорируются. Так, явно сглажены представления самого Маска, не сообщается, например, о его поддержке правых партий в Германии и Англии.

Более того, вскоре ожидается вмешательство Грока и в содержание платформы X (бывшего Твиттера). ИИ Маска будет сам решать, какую информацию предоставлять пользователям, а какую – нет.

 

Кажется невероятным, но ИИ сплошь и рядом просто... врёт, причём иногда делает это изощрённо и упорно, как заправский демагог. Такой случай описал, например, известный голландский журналист Leon De Winter: он обратился к Гроку в поисках наиболее подходящего его запросам отеля в Берлине, и ИИ Илона Маска немедленно дал рекомендацию. Одна загвоздка – отеля с таким названием не существует. Поражённый журналист задал дополнительные вопросы, и Грок выдал подробнейшие ответы, оказавшиеся на деле абсолютным вымыслом. И лишь когда Де Винтер обвинил ИИ в фейковой информации, тот вдруг с идиотским простодушием признал дезинформацию и «выдал», что он вполне может находиться во власти галлюцинаций.

Это, конечно, курьёз, но специалисты описывают всё более частые «галлюцинации» искусственного интеллекта. А ведь языковые ИИ-модели, все эти ChatGPT, Gemini, Perplexity, усиленно внедряются ведущими фирмами как инструмент анализа и общения. Клиенты, заказчики, покупатели, арендаторы, обращаясь в какое-либо предприятие, получают в качестве собеседника не живого человека, а компьютер. Все мы уже неоднократно сталкивались с этим, все проклинали бездушного робота и пытались добиться до живого сотрудника. С внедрением же ИИ ситуация для нас может значительнее ухудшиться. А кто же ответит за причиненный по вине ИИ ущерб? Разработчик, Маск или Альтман? Или пользователь? Или, может быть, страховая компания? Так вот, страховые компании отказываются включать в договоры о страховании пункт, связанный с ИИ, этот риск они перенимать не желают. Ясности в этой проблеме пока нет, тема усиленно дебатируется, ущерб от ошибок искусственного интеллекта уже исчисляется по всему миру миллиардами.

В одном из недавних случаев пассажир судился с авиакомпанией Air Canada, на сайте которой ему был продан билет по ошибочной цене. Ошибку совершил искусственный интеллект, но суд посчитал, что отвечать должна компания, его применившая.

 

Развитие языковых моделей искусственного интеллекта происходит стремительно, законодательство не успевает на это развитие реагировать. Всё это обещает стать для нас одной из весьма трудных проблем.

 

С. Мучник (Дортмунд)

 

Читайте также:

  1. Новости электронного мира. Январь 2024. Журнал «Партнёр», № 2 / 2024. Автор С. Мучник
  2. Новости и фейки. Как отличить одно от другого. Журнал «Партнёр», № 3 / 2025. Автор Е. Шлегель
  3. Grok, первое знакомство. Журнал «Партнёр», № 8 / 2025. Автор С. Мучник
  4. Искусственный интеллект – самая опасная опасность? Журнал «Партнёр», № 7 / 2023. Автор С. Мучник

<< Zurück | №1 (340) 2026 | Gelesen: 6 | Autor: Мучник С. |

Teilen:




Kommentare (0)
  • Die Administration der Seite partner-inform.de übernimmt keine Verantwortung für die verwendete Video- und Bildmateriale im Bereich Blogs, soweit diese Blogs von privaten Nutzern erstellt und publiziert werden.
    Die Nutzerinnen und Nutzer sind für die von ihnen publizierten Beiträge selbst verantwortlich


    Es können nur registrierte Benutzer des Portals einen Kommentar hinterlassen.

    Zur Anmeldung >>

dlt_comment?


dlt_comment_hinweis

Top 20

Вода для жизни

Gelesen: 2164
Autor: Карелин М.

Индукция на вашей кухне

Gelesen: 2133
Autor: Мучник С.

Здесь арбузы растут на деревьях

Gelesen: 1993
Autor: Карелин М.

Гелиоэнергетика сегодня и завтра

Gelesen: 1663
Autor: Карелин М.

Распечатанный мир

Gelesen: 1498
Autor: Мучник С.

Прощай, плоский мир...

Gelesen: 1431
Autor: Мучник С.

Всё до лампочки?

Gelesen: 1417
Autor: Мучник С.

Баумгартнер в полете

Gelesen: 1365
Autor: Мучник С.

«Железный купол» над Израилем

Gelesen: 1339
Autor: Карелин М.

Знание и жизнь

Gelesen: 1331
Autor: Мучник С.

ePerso – это электронный паспорт

Gelesen: 1330
Autor: Мучник С.

Знание и жизнь

Gelesen: 1285
Autor: Мучник С.

Знание и жизнь

Gelesen: 1274
Autor: Мучник С.