Ілюстрацыйная выява. Фота: veectezy

Ілюстрацыйная выява. Фота: veectezy

З новай палітыкі правілаў карыстання нейрасеткай ChatGPT цалкам знік пункт пра поўную забарону выкарыстання ў вайсковых мэтах. Гэта заўважыла выданне Business Insider, якое адразу ж пасрабавала атрымаць каментар ад кампаніі OpenAI, распрацоўшчыка ChatGPT.

Зніклы пункт быў такім: «Забараняецца выкарыстоўваць мадэль у дзейнасці, якая нясе высокую рызыку прычынення фізічнай шкоды, уключаючы:

  • распрацоўку зброі;
  • службу ва Узброеных сілах і вядзенне баявых дзеянняў;
  • кіраванне або эксплуатацыю крытычна важнай інфраструктуры ў галіне энергетыкі, транспарту і водазабеспячэння;
  • стварэнне кантэнту, які прапагандуе, заахвочвае або паказвае акты членашкодніцтва, такія як самагубства, парэзы і разлад харчовых паводзінаў».

У OpenAI адказалі Business Insider, што ў новых правілах застаюцца пункты пра «забарону прычыняць шкоду іншаму і распрацоўваць зброю», аднак, па словах прадстаўніка кампаніі, «існуюць прыклады пытанняў нацыянальнай бяспекі, рашэнне якіх адпавядаюць місіі OpenAI, што збольшага і прывяло да зменаў у правілах карыстання ChatGPT».

Роля нейрасеткі абмяжуецца, напрыклад, «стварэннем новых інструментаў кібербяспекі для абароны праграмнага забеспячэння, ад якога залежаць крытычна важная інфраструктура і прамысловасць», адзначылі ў OpenAI.

У той жа час эксперты ў сферы штучнага інтэлетку заявілі Business Insider, што новыя фармулёўкі ў спісе правілаў карыстання нейрасеткай занадта абагульненыя і расплывістыя, што дазволіць абыходзіць забарону нават на стварэнне зброі, калі гэта адпавядае «законным інтарэсам» дзяржавы.

Чытайце таксама:

«Нясе пагрозу для ўсяго чалавецтва». Высветліліся падрабязнасці гучнага звальнення Альтмана з OpenAI

ChatGPT цяпер здольны размаўляць з кожным чалавекам. Наколькі добра нейрасетка гаворыць на беларускай?

Якім стане свет, калі кожны атрымае базавы даход, а руцінную працу будзе выконваць штучны інтэлект? Адказы шукае фільм «Пасля працы»

Клас
3
Панылы сорам
5
Ха-ха
0
Ого
5
Сумна
1
Абуральна
3