Elon Musk și un grup de experți în AI îndeamnă să se întrerupă antrenarea sistemelor AI mai puternice decât GPT-4 pentru a gestiona riscurile potențiale pentru societate și umanitate
Elon Musk și un grup de experți în inteligență artificială și directori din industrie solicită o pauză de șase luni în sistemele de antrenament mai puternice decât modelul recent lansat de OpenAI GPT-4, au spus aceștia într-o scrisoare deschisă, invocând potențiale riscuri pentru societate. și umanitatea.
Scrisoarea, emisă de institutul non-profit Future of Life și semnată de peste 1.000 de oameni, inclusiv Musk, CEO-ul Stability AI, Emad Mostaque, cercetătorii de la DeepMind, deținut de Alphabet, precum și greii AI Yoshua Bengio și Stuart Russell, a cerut o întrerupeți dezvoltarea avansată a IA până când protocoalele de siguranță comune pentru astfel de proiecte au fost dezvoltate, implementate și auditate de experți independenți.
„Sistemele puternice de inteligență artificială ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionate”, se spune în scrisoare.
Scrisoarea a detaliat, de asemenea, riscurile potențiale pentru societate și civilizație prin sistemele AI competitive pentru oameni, sub formă de perturbări economice și politice, și a cerut dezvoltatorilor să lucreze cu factorii de decizie în ceea ce privește guvernanța și autoritățile de reglementare.
Scrisoarea vine în momentul în care forța de poliție a UE Europol s-a alăturat luni unui cor de preocupări etice și juridice cu privire la IA avansată precum ChatGPT, avertizând cu privire la potențiala utilizare greșită a sistemului în tentative de phishing, dezinformare și criminalitate cibernetică. Musk, al cărui producător de mașini Tesla folosește AI pentru un sistem de pilot automat, a vorbit cu privire la preocupările sale cu privire la AI.
De la lansarea sa de anul trecut, ChatGPT de la OpenAI susținut de Microsoft i-a determinat pe rivali să accelereze dezvoltarea unor modele similare de limbaj mari, iar companiile să integreze modele AI generative în produsele lor.
Sam Altman, directorul executiv al OpenAI, nu a semnat scrisoarea, a declarat pentru Reuters un purtător de cuvânt al Future of Life. OpenAI nu a răspuns imediat la cererea de comentarii.
„Scrisoarea nu este perfectă, dar spiritul este corect: trebuie să încetinim până când înțelegem mai bine ramificațiile”, a spus Gary Marcus, profesor emerit la Universitatea din New York, care a semnat scrisoarea.
„Ei pot provoca vătămări grave… marii jucători devin din ce în ce mai secreti în ceea ce privește ceea ce fac, ceea ce face ca societatea să se apere cu greu împotriva oricăror daune care s-ar putea materializa”.
Fiți la curent cu ultimele noutăți. Urmărește TIMPUL pe Google News și Telegram!