Súlyos sebezhetőségre figyelmeztet a Fortinet Orosz állami hackerek forráskódokat lophattak el a Microsofttól Mi az a Ransomware-as-a-Service? 110 milliós bírságot kapott a KRÉTA meghekkelt fejlesztője Szoftverengedélyezési folyamat – Kiberbiztonsági ellenőrzőlista Letartóztatták a LockBit néhány tagját, kiadtak egy dekriptáló szoftvert Broken Object Level Authorization sérülékenység javítása, megelőzése A titkosított Signal üzenetküldő bevezetet a felhasználóneveket Információbiztonság vs. kiberbiztonság Felhőalapú kiberbiztonsági tanácsadás és audit Kiberbiztonsági partnerprogram CVSS: Common Vulnerability Scoring System Sérülékenységvizsgálat, penetrációs teszt és red teaming jellemzői Session Hijacking sérülékenység javítása, megelőzése Kövessen Minket LinkedInen is!

A mesterséges intelligenciák piaca sok munkát adhat a bölcsészeknek

Az utóbbi években robbanásszerűen nőtt az igény az automatikus nyelvi modellek iránt, amelyek lehetővé teszik az emberek számára, hogy hatékonyabban kommunikáljanak a számítógépekkel. Azonban egyre több cég és ország hoz létre saját önfejlesztő nyelvi modelleket, amiket eltérő szabályok korlátoznak, ezeknek pedig komoly morális, erkölcsi és etikai következményei lehetnek.

OpenAI Sam Altman

Az elsődleges aggodalom az, hogy ezek a modellek tükrözik azokat az értékeket és szokásokat, amelyek az adott kultúrában, üzleti környezetben vagy országban elfogadottak. Ez azt jelenti, hogy például a nyugati országokban fejlesztett modellek olyan értékeket képviselhetnek, amelyek nem feltétlenül elfogadhatóak más országokban és ugyanez fordítva is igaz. Ráadásul ezeket a modelleket jellemzően tartalomgyártásra is használják, tehát a különböző AI-k egymástól is eltanulhatnak olyan dolgokat, amik a felhasználási környezetükben nem férnek bele. Ez komoly problémákat okozhat, ha a modelleket a globális kommunikációban használják.

Az önfejlesztő nyelvi modellek terjedése azt is jelzi, hogy a bölcsész, pszichológus és filozófus szakemberek szerepe változni fog – és itt most nem a „mekis” poénokra gondolunk. Míg korábban ezek a szakemberek az emberi kommunikációra, a társadalmi és kulturális kérdésekre fókuszáltak, most egyre inkább szükség lesz rájuk ahhoz, hogy segítsék a modellek kialakítását, és biztosítsák, hogy azok az erkölcsi és etikai normáknak megfelelően működjenek.

A Google például azért maradt le a versenyben, mert etikai aggályok merültek fel a Bard AI használata közben.

Azonban nemcsak az erkölcsi és etikai kérdések miatt kell aggódnunk. Az önfejlesztő nyelvi modellek korlátozásaival kapcsolatos viták akár üzleti következményekkel is járhatnak. Ha egy nyelvi modellt vagy AI-t szolgáltató cég korlátozásokat alkalmaz, az befolyásolhatja az adott cég globális piaci növekedését és hatékonyságát, miközben az ezeket a témákat lazábban kezelő szereplők komoly előnyhöz juthatnak rövid távon.


A cikk másodközlése kizárólag kattintható forrásmegjelöléssel engedélyezett!

További cikkek
Megosztás