Робочі з алгоритмів не бачать, все частіше тягнуть рядки управління

"Пробач, Дейв. Боюся, що не можу цього зробити". Холодна, хоч ввічлива, HAL, відмова відчинити двері в бухті стручка в 2001 р. Космічна Одісея стала визначальним попередженням про надто довіру до штучного інтелекту, особливо якщо ви працюєте в космосі.

У кіно, коли машина вирішує бути босом — або люди це дозволяють — справи йдуть не так. Однак, незважаючи на безліч попереджень дистопії, контроль за допомогою машин швидко стає нашою реальністю.

Алгоритми — набір інструкцій для вирішення проблеми або виконання завдання — тепер переведіть все, від результатів пошуку браузера, до кращої медичної допомоги.

Вони допомагають проектувати будинки. Вони прискорюють торгівлю на фінансових ринках, заробляють і втрачають статки за мікросекунди. Вони розраховують найбільш ефективні маршрути для водіїв доставки.

На робочому місці компанії впроваджують алгоритмічні комп'ютерні системи самонавчання для надання допомоги у таких сферах, як наймання, постановка завдань, вимірювання продуктивності праці, оцінка ефективності та навіть припинення роботи: "Вибачте, Дейв. Боюся, що ти будучи надмірним ".

Надання алгоритмам самонавчання відповідальність за прийняття та виконання рішень, що стосуються працівників, називається "алгоритмічним управлінням". Він несе в собі безліч ризиків, пов'язаних з знеособленням систем управління та закріпленням раніше існуючих упереджень.

На ще глибшому рівні, можливо, алгоритмічне управління закріплює дисбаланс потужності між керівництвом і працівником. Алгоритми суворо охороняють таємниці. Процеси прийняття рішень приховані. Це чорна скринька: можливо, ви трохи розумієте дані, які надійшли, і ви бачите результат, який виходить, але ви не маєте уявлення про те, що відбувається між ними.

Алгоритми на роботі

Ось кілька прикладів алгоритмів, які вже працюють.

У центрі виконання Amazon на південному сході Мельбурна вони задають темп "пікерам", у яких таймери на своїх сканерах показують, як довго їм потрібно знайти наступний предмет. Як тільки вони сканують цей елемент, таймер скидається на наступний. Все зі швидкістю «не зовсім ходити, не зовсім бігати».

Або як щодо AI, що визначає ваш успіх на співбесіді з роботи? Понад 700 компаній випробували таку технологію. Американський розробник HireVue каже, що його програмне забезпечення прискорює процес найму на 90%, вимагаючи, щоб заявники відповідали на однакові запитання, а потім оцінювали їх відповідно до мови, тону та міміки обличчя.

Зрозуміло, оцінки людей під час співбесіди з роботою, як відомо, є помилковими. Але алгоритми також можуть бути упередженими. Класичний приклад — програмне забезпечення КОМПАС, яке застосовують судді, умовно-допитливі та умовно-дострокові служби США, щоб оцінити ризик особи повторно діяти. У 2016 році дослідження ProPublica показало, що алгоритм був сильно дискримінаційним, неправильно класифікувавши чорних суб'єктів як більш високий ризик у 45% часу, порівняно з 23% для білих.

Як справляються працівники концертів

Алгоритми роблять те, що підказує їх код. Проблема в тому, що цей код рідко доступний. Це ускладнює їх огляд або навіть розуміння.

Ніде цього більш очевидно, ніж у концерті економіки. Платформи Uber, Lyft, Deliveroo та інші не могли існувати без алгоритмів розподілу, моніторингу, оцінки та винагородження робіт.

Наприклад, протягом минулого року велосипедні кур'єри та водії компанії Uber Eats звинувачували незрозумілі зміни в алгоритмі щодо скорочення своїх робочих місць та доходів.

Райдер не може бути на 100% впевнений, що це все зводиться до алгоритму. Але це частина проблеми. Справа в тому, що ті, хто залежить від алгоритму, не знають того чи іншого способу, на них впливають сильно.

Це ключовий результат наших інтерв'ю з 58 кур'єрами з доставки їжі. Більшість знала, що їхні робочі місця розподіляються алгоритмом (через додаток). Вони знали, що додаток збирає дані. Те, чого вони не знали, — це те, як дані використовувались для їх нагородження.

У відповідь вони розробили низку стратегій (або здогадалися, як), щоб «виграти» більше робочих місць, таких як прийняття концертів якомога швидше та очікування в «чарівних» місцях. За іронією долі, ці спроби догодити алгоритму часто означали втрату тієї самої гнучкості, яка була однією із прихильностей роботи концерту.

Інформаційна асиметрія, створена алгоритмічним управлінням, має два глибоких наслідки. По-перше, це загрожує уникненням системних упереджень, типу дискримінації, прихованої роками алгоритму COMPAS. По-друге, це ущільнює дисбаланс потужності між керівництвом та працівником.

Наші дані також підтвердили висновки інших, що скаржитися на рішення алгоритму майже неможливо. Працівники часто не знають точної основи цих рішень, і ні до кого не можна скаржитися. Наприклад, коли велосипедні кур'єри Uber Eats запитували причини, що стосуються їх скорочувального доходу, наприклад, відповіді компанії порадили їм: "ми не маємо вручну контролювати, скільки постачань ви отримуєте".

Ширші уроки

Коли алгоритмічне управління працює як "чорна скринька", одним із наслідків є те, що воно може стати непрямим механізмом управління. Наразі австралійські регулятори, поки що недостатньо оцінені, цей механізм управління дав можливість платформам мобілізувати надійну та масштабовану робочу силу, уникаючи обов'язків роботодавців.

"Відсутність конкретних доказів того, як працюють алгоритми", — зазначає урядовий вікторіанський запит щодо робочої сили "на вимогу" у своєму звіті, "утруднює скаргу водію чи наїзнику, якщо вони відчувають себе знедоленими".

У звіті, опублікованому в червні, також було встановлено: "важко підтвердити, чи справді стурбованість прозорістю алгоритму".

Але саме в тому, що важко підтвердити, це проблема. Як ми можемо почати навіть визначати, не кажучи вже про вирішення таких питань, як алгоритмічне управління?

Стандарти справедливої ​​поведінки для забезпечення прозорості та підзвітності — це початок. Одним із прикладів є ініціатива «Справедлива робота», яку очолює Інститут Інтернету в Оксфорді. Ініціатива об'єднує дослідників з платформами, працівниками, профспілками та регуляторами для розробки глобальних принципів роботи в економіці платформ. Сюди входить «справедливе управління», яке фокусується на тому, наскільки прозорі результати і результати алгоритмів для працівників.

Розуміння щодо впливу алгоритмів на всі форми роботи ще в зародковому стані. Це вимагає більшого контролю та досліджень. Без нагляду за людьми на основі узгоджених принципів ми ризикуємо запросити HAL на свої робочі місця.

Facebook Comments