Штучний інтелект проти людяності: чому автоматизація поглиблює соціальну нерівність

Штучний інтелект проти людяності: чому автоматизація поглиблює соціальну нерівність

Декількома словами

Авторка стверджує, що автоматизація, керована хибною ефективністю, перетворює людей на «номери» в системі, поглиблюючи соціальну нерівність і загрожуючи праву на індивідуальне, людяне ставлення, яке не повинно залежати від фінансового стану.


Ще до появи штучного інтелекту (ШІ) соціальна нерівність призвела до дискримінації у доступі до спокійного, людського ставлення. Можливо, варто відмовитися від метафори «нас залишать позаду» і запитати, хто йде попереду, і чи справді ми хочемо їх наздоганяти. Можливо, немає «попереду» чи «позаду», а є лише кілька різних шляхів.

Деякі експерти, як-от художниця Дженніфер Волш та програмістка Марга Паділья, підходять до ШІ з відкритістю, розглядаючи його як інструмент для уяви. Їм цікаво гратися з інструментом, розуміти його можливості та обмеження. На протилежному полюсі знаходиться музикант Ентоні Моссер, який називає себе «ненависником ШІ» і святкує свою людяність, оскільки ШІ не може відчувати, любити чи ненавидіти. Усі вони сходяться на думці, що «ШІ» — це лише загальний термін, який приховує низку технологій, процесів та інфраструктур, більшість з яких пов’язані з автоматизацією, системами автоматизованого прийняття рішень та прогностичною оптимізацією.

Автоматизація може бути корисною для зменшення втоми або для спеціалізованих моделей (наприклад, прогнозування забруднення), але вона є шкідливою, коли на кону стоять людські стосунки. Ніхто не хоче, щоб до нього ставилися як до гвинтика в механізмі чи простого числа.

Ми, люди, є водночас рівними у правах і різними у своїй сутності. Наша унікальність вимагає світу, який враховує те, що неможливо виміряти. Два схожі випадки часто не є однаковими, тому що кожна людина має свій контекст, зв’язки та життєві обставини. Ми прагнемо, щоб нашу унікальність почули та зрозуміли.

На жаль, багато фахівців забувають про людину перед собою, часто через те, що «система не дозволяє» їм проявити гнучкість. Працівник, який безпорадно дивиться на екран і каже: «Я розумію, але система мені не дозволяє», гуманізує машину і дегуманізує клієнта, а також самого себе, оскільки його критерії та досвід ігноруються.

Дискримінація у доступі до людяного ставлення є неприпустимою. Посилювати її заради уявної ефективності — тим більше. Якщо у лікаря немає часу на кожного пацієнта, рішення не в автоматизації, а у зміні умов праці. Право на людське ставлення не повинно залежати від того, де ви живете чи скільки можете заплатити.

Проект автоматизованої ефективності називають «нестримним», але це не так. У часи, коли багато рішень можуть мати незворотні наслідки, їх необхідно ретельно зважувати.

Слабкі сторони автоматизації включають:

  • Надмірне споживання електроенергії та води центрами обробки даних.
  • Експоненційне збільшення помилок при широкомасштабному впровадженні систем.
  • Автоматизацію обману та спекуляцій.
  • Знецінення людських стосунків.

Коли ми кажемо: «Я хочу поговорити з людиною», а синтетична модель відповідає: «Мені шкода, що я не зміг вам допомогти», це шахрайство. У цих словах немає волі до оповіді, немає «я», немає дії жалю. Мова є спільним надбанням, і ми не повинні дозволяти її розтрачувати до того, щоб забути: за кожним значенням має стояти бажання щось сказати, а за кожною дією — бажання бути відповідальним, щоб бути вільним.

Про автора

Яніна - журналістка, що спеціалізується на висвітленні питань освіти та науки в США. Її статті відзначаються глибоким аналізом освітніх реформ, наукових досліджень та інновацій. Вона часто бере інтерв'ю у відомих американських науковців та освітян, розкриваючи їхні ідеї та досягнення.