Ŝarĝante . . . ŜARGITA

GPT-4: Kion Vi DEVAS Scii Pri la NOVA BabiladoGPT

ChatGPT OpenAI

FACT-CHECK GARANTIO (Referencoj): [Oficiala dokumentaro: 1 fonto] [Paro-reviziitaj esplorartikoloj: 1 fonto] [Akademia retejo: 1 fonto]

 | De Rikardo Ahern - Pasintjare, ChatGPT ekbruligis la mondon kiel unu el la plej altnivelaj AI-babilrotoj ekzistantaj, sed nun OpenAI de Elon Musk denove levis la stangon.

Eĉ se vi loĝas sub roko, vi verŝajne spertis iom da ekscito ĉirkaŭ la babilejo de Open AI, ChatGPT, kiu estis publikigita en novembro 2022.

Dum teknologiaj kompanioj ofte reklamas siajn novajn produktojn kiel la "sekva granda afero", la grupo de GPT-grandlingvaj modeloj de Open AI turnis kapojn ĉie.

Sur la surfaco, ĝi estis tekst-bazita mesaĝa servo kun komputilo parolanta reen sur la alia fino. Ĝi ne parolis aŭdeble aŭ produktis ajnan vidan retrosciigon - ĝi nur legis kaj kraĉis liniojn de teksto.

Do kial homoj enamiĝis al ĝi?

Ĉar ĝi faciligis la vivon, ĝi faris la laboron kaj faris ĝin bone. Sed, kompreneble, ĝi dependas de tio, por kio vi uzas ĝin; ĝi ne lavotos aŭ kuiros por vi - sed ĝi donos al vi kelkajn decajn receptajn ideojn!

Tamen, por verkistoj kaj kodistoj estas kie brilas, petu ĝin verki komputilan programon en iu ajn lingvo, kaj ĝi faras sufiĉe imponan laboron.

Ĝia unikeco kuŝas en la maniero, ke vi povas doni al ĝi tre simplismajn aŭ neklarajn instrukciojn, kaj ĝi ofte plenigos la vakojn kaj faros la ĝustajn supozojn.

Por verkistoj, ili povus kopii kaj alglui pecon da teksto kaj peti resumi ĝin en unu alineo — neniu problemo. Vi povas uzi ĝin kiel baza literumo kaj gramatika kontrolilo, sed tio malŝparas ĝiajn talentojn. Ĝi ne nur korektos erarojn kaj plibonigos klarecon, same kiel ajna altnivela AI-skriba asistanto, sed vi ankaŭ povas peti ĝin reverki vian tutan pecon aŭ skribi la tutan aferon de nulo (ĉu vi estu maldiligenta).

Por ke ni ne forgesu…

Ĝi estis malgaja koŝmaro por instruistoj kaj ekzamenantoj, ĉar ĝi malfermis novan ladskatolon da vermoj en la batalo kontraŭ trompado. Sed, kompreneble, ne helpas, ke OpenAI testis la GPT-ojn donante al ili normajn lernejajn ekzamenojn, kaj kiel vi vidos sube, kun rimarkindaj rezultoj.

Por vere kompreni ĝian potencon, vi devas mem eksperimenti, sed entute, la eligo-kvalito estas impona, ĉefe ĉar ĝi povas produkti plilongigitajn kaj detalajn arojn da enhavo, ne nur unu aŭ du frazojn.

Sed tio estis nur GPT-3.5...

Hieraŭ, novaĵo diskonigis tion GPT-4 estas preta, kaj ĝi estas tute nova monstro.

Unue, ĝi laŭdire povas prilabori bildenhavon same kiel tekston, kion la teknika komunumo petegis. Sekureco ŝajnas esti fokuso por GPT-4, kun ĝi "82% malpli verŝajne respondi al petoj por malpermesata enhavo."

Resume, ĝi estas pli granda...

La GPT-oj estas nomitaj grandaj lingvomodeloj — ili estas nutrataj gigantaj aroj da datumoj pri lingvo kaj uzas probablojn por antaŭdiri la sinsekvon de vortoj. Ekzamenante miliardojn da parametroj pri la strukturo de lingvo, la programo rigardos vorton aŭ aron da vortoj, kalkulos la probablojn de kiuj vortoj sekvas, kaj poste elektos la plej altan verŝajnecon.

Ekzemple, prenu la frazon "Mi kuris supren la..." - tiam prenu la sekvajn vortojn, "hundo", "pilko", "ŝtuparo" aŭ "monteto".

Intuicie, ni scias, ke "hundo" kaj "pilko" ne havas sencon, sed "ŝtuparo" kaj "monteto" estas ambaŭ realigeblaj elektoj. Tamen, profunda lernado programo ne havas homan intuicion; ĝi rigardos grandan kvanton da teksto kaj kalkulos la probablojn de ĉiu vorto sekvanta la frazon "Mi kuris supren la...".

Ni diru, ke "hundo" kaj "pilko" okazas malpli ol 0.001% de fojoj post tiu frazo kaj diru ke "ŝtuparo" havas 20% probablecon sekvi tiujn vortojn, sed "monteto" gajnas 21% probablecon. Do, la maŝino elektos "monteton" kaj eligos: "Mi kuris supren laŭ la monteto."

Ĉu ĝi povus esti malĝusta? Kompreneble, sed ĝi havas pli altan probablecon esti ĝusta, kaj ju pli da datumoj ĝi havas, des pli preciza ĝi estos.

Ĝi ne estas tute tiel simpla; post kiam la modelo havas la datumojn, ĝi estas testita kaj agordita de homaj recenzistoj por precizeco kaj por minimumigi "halucinon", la emon produkti sensencajn rubaĵojn - elektante la malĝustajn vortojn!

GPT-4 estas la plej granda modelo ĝis nun, je multaj grandordoj, kvankam la preciza nombro da parametroj ne estis malkaŝita. Antaŭe, GPT-3 estis pli ol 100 fojojn pli granda ol GPT-2, kun 175 miliardoj da parametroj al la 2 miliardoj de GPT -1.5. Ni povas supozi similan pliiĝon kun GPT-4. Krome, ni scias, ke la programo spertis intensan fajnagordon uzante plifortiga lernado de homa reagoj. Ĉi tio implicas peti homojn taksi la respondojn de la babilejo, kaj ĉi tiuj poentoj estas reproduktitaj por "instrui ĝin" produkti pli bonajn produktaĵojn.

Open-AI restis sekretema pri GPT-4, citante "kaj la konkurencivan pejzaĝon kaj la sekurecajn implicojn." Tial, la preciza modelgrandeco, aparataro kaj trejnadmetodoj estas ĉiuj nekonataj.

Ili diris ĉi tion:

"GPT-4 povas solvi malfacilajn problemojn kun pli granda precizeco, danke al sia pli larĝa ĝenerala scio kaj problemoj solvantaj kapabloj." Estas 82% malpli probabla ol GPT-3.5 respondi al petoj pri malpermesita enhavo kaj 60% malpli probabla fari aĵojn.

Jen la timiga parto:

GPT-4 faris signife pli bone ol la plej multaj homaj testantoj kaj GPT-3.5 dum lernejaj ekzamenoj. Ekzemple, en la Uniform Bar Exam (leĝo), ĝi gajnis en la supraj 90%, kompare kun GPT-3.5, kiu gajnis en la kompatinda 10-a procento. En AP-statistiko, AP-psikologio, AP-biologio kaj AP-arthistorio (A-nivelaj ekvivalentoj en la UK), GPT-4 gajnis inter la 80-a kaj 100-a centiloj - alivorte, foje batante ĉiujn!

Ne ĉio estas bona:

Interese, ĝi faris la plej malbonan (8-a ĝis 22-a centolo) en angla literaturo kaj komponado kaj povus esti pli impona en kalkulado (43-a ĝis 59-a centolo).

En Twitter, kelkaj homoj pruvis kiel GPT-4 transformis skribaĉitan skizon de retejo sur buŝtuko en plene funkcian interretan aplikaĵon.

Ĝenerale, OpenAI emfazis plibonigitan precizecon kaj sekurecon kiel la kritikajn plibonigojn de GPT-4. Estas multe malpli verŝajne respondi al uzantoj, kiuj petas instrukciojn por krei bombon, ekzemple. Ĝi ankaŭ kapablas pritrakti multe pli longan enhavon ol sia antaŭulo, prilaborante 25,000 vortojn kompare kun ĉirkaŭ 1,500 vortoj.

GPT-4 estis prezentita kiel pli "kreiva" ol antaŭe - laŭ OpenAI, "Ĝi povas generi, redakti kaj ripeti kun uzantoj pri kreaj kaj teknikaj skribtaskoj, kiel komponado de kantoj, verkado de filmoj..."

Fine, eble plej granda el ĉiuj, ĝi havas "vizion", povante analizi kaj klasifiki la enhavon de bildoj.

AI alvenis, kaj ĉu vi trovas ĝian evoluon ekscita aŭ timiga, oni ne povas nei, ke ĝi estas ĉi tie por resti. Dum iuj povas zorgi pri esti anstataŭigitaj, tiuj, kiuj akceptas ĝian potencialon, uzos ĝin kiel la plej potencan ilon disponeblan.

Ni bezonas VIAN helpon! Ni alportas al vi la necenzuritajn novaĵojn por SENPAGA, sed ni povas fari tion nur danke al la subteno de fidelaj legantoj same kiel VI! Se vi kredas je libera sinesprimo kaj ĝuas verajn novaĵojn, bonvolu konsideri subteni nian mision per fariĝante patrono aŭ farante a unufoja donaco ĉi tie. 20% de ĈIUJ fondusoj estas donacitaj al veteranoj!

Ĉi tiu artikolo eblas nur danke al nia sponsoroj kaj mecenatoj!

Aliĝu al la diskuto!
aboni
Informu pri
0 Komentoj
Interretaj Resalutoj
Vidi ĉiujn komentojn
0
Amus viajn pensojn, bonvolu komenti.x