Знайсці
30.05.2023 / 11:143РусŁacБел

Чат-боты са штучным інтэлектам пішуць навіны. Як гэта змяняе працу рэдакцый

Былы кіраўнік аддзелаў даверу ў Google і ByteDance Арджун Нараян даў інтэрв’ю Gizmodo, у якім расказаў пра складанасць цяперашняга гістарычнага моманту, а таксама пра тое, як навінавыя агенцтвы і рэдакцыі павінны падыходзіць да кантэнту ШІ, каб ён мог заваяваць давер чытачоў, і чаго чакаць ад ШІ ў блізкай будучыні.

Сёння кампаніі, рэдакцыі і палітыкі паспешліва спрабуюць распрацаваць стандарты, каб захаваць давер у свеце, дзе інфармацыя, створаная ШІ, будзе ўсё часцей з'яўляцца ў інтэрнэце. Многія стваральнікі кантэнту ўжо выкарыстоўваюць чат-ботаў для выпускаў навін, некаторыя з якіх ўтрымліваюць патэнцыйна небяспечную хлусню.

Раптоўныя праблемы, з якімі сёння сутыкаюцца генератары навін, ёсць вынікам паступовага нарошчвання алгарытмаў рэкамендацый і іншых прадуктаў ШІ, якія Арджун Нараян дапамагаў кантраляваць больш за дваццаць гадоў — спачатку ў ByteDance і Google, а сёння — у SmartNews, прыкладанні для пошуку навін, даступнага ў больш чым 150 краінах.

Рэдакцыі павінны распрацаваць стандарты

Сёння складана вызначыць, якія гісторыі цалкам напісаныя ШІ, а якія не. Гэтае адрозненне сціраецца. Аднак у тым, што ШІ стварае артыкулы, няма нічога дрэннага, як лічыць Арджун Нараян. Праўда, на яго думку, карыстальнік павінен ведаць, што гэты кантэнт быў напісаны з дапамогай чат-бота. Гэта можна пазначаць у подпісе або ў самой інфармацыі, што кантэнт быў часткова або цалкам згенераваны ШІ.

У рэдакцыях на гэты конт яшчэ не распрацавалі ніякіх стандартаў.

Нараян таксама адзначае, што рэдакцыям патрэбныя каманды фактчэкінгу, якія будуць карэктаваць усё, што выходзіць з сістэмы штучнага інтэлекту, бо ШІ часта дапускае фактычныя недакладнасці ці прыдумляе тое, чаго няма. Па словах Нараяна, логіка прыняцця рашэнняў ШІ па-ранейшаму застаецца «чорнай скрыняй». Незразумела, калі ён напіша чарговы фэйк або выдасць дэзынфармацыю.

Былы кіраўнік аддзела даверу ў Google таксама звяртае ўвагу, што калі чалавек перапрацоўвае кантэнт, створаны ШІ, то ён усё адно павінен лічыцца аўтарам.

«Думайце пра гэта як пра канвеер. Ёсць зборачная лінія Toyota, дзе робаты збіраюць аўтамабілі. Калі канчатковы прадукт мае няспраўную падушку бяспекі або няспраўнае рулявое кола, Toyota па-ранейшаму бярэ на сябе адказнасць за гэта, незалежна ад таго, што гэтую падушку бяспекі вырабіў робат. Калі справа даходзіць да канчатковага выніку, адказнасць ляжыць на навінавым выданні».

Людзі патрэбныя і будуць патрэбныя

Ёсць верагоднасць, што тэхналагічныя кампаніі, якія хутка звольнілі людзей праз імклівае развіццё штучнага інтэлекту, паспяшаліся, выказвае меркаванне Арджун Нараян. Асабліва ў сферах HR, даверу і бяспекі.

Што датычыць медыя, па яго словах, тут яшчэ доўгі час будзе патрэбная праца людзей, якія разумеюць кантэкст. Інфармацыю трэба правяраць на дакладнасць, палітычны ўхіл, на адпаведнасць рэдакцыйным стандартам і каштоўнасцям. Гэта можа рабіць толькі чалавек.

Выклік для палітыкаў і грамадзянскай супольнасці

Арджун Нараян звяртае ўвагу, што грамадства цяпер не падрыхтаванае да пераменаў, якія адбываюцца. Шмат людзей страцілі працу, і яшчэ многія страцяць, аднак органы, якія рэгулююць гэтыя працэсы, не былі гатовыя да такіх хуткіх скарачэнняў і не ведаюць, чым заняць людзей, якія засталіся без працы.

На думку Нараяна, грамадзянскай супольнасці таксама варта задумацца над гэтымі пытаннямі. Яна часта здольная адрэагаваць нават хутчэй, чым палітыкі.

«Я настроены аптымістычна, але дазвольце мне сказаць вам вось што. У мяне ёсць сямігадовая дачка, і я часта пытаюся ў сябе, якую працу яна будзе выконваць. Праз 20 гадоў працоўныя месцы, якімі мы іх ведаем сёння, карэнным чынам зменяцца. Мы заходзім на невядомую тэрыторыю»,

— кажа былы кіраўнік аддзела даверу ў Google.

Яшчэ адна важная тэма для палітыкаў — прадумаць, у якіх сектарах ШІ варта выкарыстоўваць, а якія сферы павінны застацца для яго недасягальныя.

Так, напрыклад, калісьці было прынятае рашэнне не кланаваць чалавечыя органы — бо гэта можа выклікаць масу этычных пытанняў. Аднак ШІ можна было б прыстасаваць да таго, каб займацца даследаваннем розных ужо доўгі час невылечных хвароб, такіх як хваробы Паркінсана і Альцгеймера, — і дапамагаць чалавечай думцы прасунуцца ў гэтым кірунку.

Дзе ў гэтых пытаннях трэба праводзіць межы — гэта, на думку Нараяна, таксама пытанне для ўрадаў.

Чытайце яшчэ:

Устань і ідзі. Кампанія Ілана Маска пачне выпрабаванні мазгавых імплантаў на людзях

ChatGPT, Bing і Аліса: якая з нейрасетак лепей валодае беларускай мовай і разумее наш кантэкст? Тэсцім

ЕС абароніць грамадзян ад штучнага інтэлекту законам: ніякіх «сацыяльных рэйтынгаў», распазнаванне твараў толькі па рашэнні суда

Nashaniva.com

Хочаш падзяліцца важнай інфармацыяй
ананімна і канфідэнцыйна?

Клас
Панылы сорам
Ха-ха
Ого
Сумна
Абуральна
2
Ягор/адказаць/
30.05.2023
Ну хоць памылак і ўсякай лухты будзе меней.
0
Казік/адказаць/
30.05.2023
Ягор, бачна, што ты не чытаў далей за загаловак. І не спрабаваў чатгпт.
2
Нашанівец/адказаць/
30.05.2023
Капіталізм перамагае! Я усе зраблю, каб мой гаспадар зарабляў больш грошаў з падтрымкай Ші. Лішнія людзі павінны быць знішчаны.
Каб пакінуць каментар, калі ласка, актывуйце JavaScript у наладах свайго браўзера
Каб скарыстацца календаром, калі ласка, актывуйце JavaScript у наладах свайго браўзера