top of page

Chatbotên îstîxbarata çêkirî ku roj bi roj cîhek girîngtir di jiyana me de digirin

Updated: Jul 17

Ji aliyê Ezgi Cakirgoz ve hatiye nivîsandin


Chatbots bernameyên ku di heman demê de îstîxbarata çêkirî û pêvajoya zimanê xwezayî bikar tînin. Mîna kompîturê agahiyan didin we lê wek mirovan bi we re diaxivin. Hema çend sal berê, ger we bigota ku bernameyên weha dê ji her kesî re bigihîjin û di gelek warên cûda de werin bikar anîn, dê baweriya me bi zorê hebûya. Lêbelê, naha serîlêdanên weha, nemaze ChatGPT, di jiyana meya rojane de dest pê kirine cîhek girîng digirin.


Pêşîn, em vegerin dema ku Apple yekem car Siri bi bikarhênerên xwe re da nasandin. Mirov tirsiyan û fikirîn ku ew îstîxbaratek çêkirî ya biyanî ye. Her çend ew bernameyek ku ji bo alîkariya mirovan hatî çêkirin be jî, ne ne çaverêkirî bû ku mirov ji karanîna van AI-yên ku me berê di fîlimên xeyalî yên zanistî de didîtin ditirsin, ku hewl didin mirovahiyê tune bikin. Lêbelê, bi demê re, mirovan dît ku Siri bê zirar e û dest bi karanîna wê kir. Dema ku ChatGPT di çend rojên borî de ji bo karanîna hate vekirin rewşek wusa çêbû. Heya nuha, dibe ku mirov ditirsin ku ChatGPT û bernameyên mîna wan bikar bînin, lê rastiyek e ku ev bername dê di pêşerojê de di jiyana me de cîhek girîng bigirin [1].


ChatGPT chatbota herî pêşkeftî ya heya niha ye, ku dikare bersiva pirsên tevlihev bide û gelek karên pêşkeftî pêk bîne. Ev AI dikare ji devê nivîskarek xebatek nû biafirîne, kodên tevlihev binivîse û rave bike, bi we re lîstikan bilîze, û hêj bêtir. ChatGPT ji hêla OpenAI ve hatî pêşve xistin. Ev AI li ser modelên bingehîn ên GPT yên pargîdanî, bi taybetî GPT-3.5 û GPT-4, hatî çêkirin. Di paşperdeya vê îstîxbarata çêkirî de, hin perwerdehî hene wek xwendina hemî pirtûkên ku heya niha hatine nivîsandin û analîzkirina her tiştê ku li ser medyaya civakî hatî nivîsandin [2].


ChatGPT di 30-ê Mijdara 2022-an de dest pê kir û gelek pesn girt. Elon Musk, yek ji hev-damezrînerên OpenAI-ê nivîsî ku "ChatGPT başek tirsnak e. Em ji AI-ya xeternak a bi hêz ne dûr in". Kevin Roose ji The New York Times jê re got "baştirîn chatbota AI-ê ku heya niha hatî eşkere kirin." Hev-damezrîner û CEO yê pargîdaniya cloudê ya pargîdanî Box Aaron Levie, got "ChatGPT yek ji wan demên kêm di teknolojiyê de ye ku hûn dişoxilînin ka dê her tişt ber bi pêş ve çawa cûda bibe." Alex Kantrowitz ji kovara Slate bersiva ChatGPT ya li ser pirsên li ser Almanyaya Nazî pesnê xwe da, di nav de daxuyanîyek ku Adolf Hitler li Almanyayê otoban çêdike û rastî agahdarî hat ku Almanyaya Nazî xebata bi zorê bikar tîne [3].


Her çend ChatGPT gelek rexneyên erênî wergirtibe jî, hejmara şîroveyên neyînî jî zêde bû. Kovara Time eşkere kir ku ji bo avakirina pergalek ewlehiyê li hember naveroka zirardar ên wekî nijadperestî, zayendîperestî, tundî û hwd xebatkarên Kenyayî yên derve tên bikaranîn. Karker bi naveroka toksîk û trawmatîk re rû bi rû man; Karkerek ev kar wek "îşkence" bi nav kir. Geoffrey Hinton, yek ji "bavê îstîxbarata sûnî", ji Google derket piştî ku fikarên xwe anî ziman ku pergalên AI-ê yên pêşerojê piştî ChatGPT dikarin ji îstîxbarata mirovî derbas bibin. Ji xeynî van, di derbarê meyla "halusînasyona hunerî" ya ChatGPT de gelek şîrove hene [4].


Halûsînasyon di AI-ê de behsa hilberîna hilberên ku dibe ku maqûl xuya bikin lê bi rastî ji çarçoweya diyarkirî re ne rast an negirêdayî ne. Van derketinan bi gelemperî ji kêmasiya têgihîştina cîhana rastîn a modela AI-yê têne encam kirin. Bi gotinek din, pergala AI-ê agahdariya ku ew bi eşkere li ser nehatine perwerde kirin "hallusînasyonan" dike, ku dibe sedema bersivên nebawer an xelet. Naha, hûn dikarin bipirsin çima halusînasyon pirsgirêkek e. Çar sedemên sereke yên vê yekê hene.


  1. Erozyona pêbaweriyê: Dema ku pergalên AI-ê agahdariya xapînok hilberînin, bikarhêner dikarin baweriya xwe bi teknolojî û bernameyên AI-ê winda bikin.

  2. Pirsgirêkên exlaqî: Berhemên halusînasyon dikare bi potansiyel stereotipên zirardar an agahdariya xelet berdewam bike, pergalên AI-ê ji hêla exlaqî ve pirsgirêk dike.

  3. Bandora li ser biryargirtinê: Pergalên AI-ê zêde zêde têne bikar anîn da ku biryarên krîtîk di warên wekî darayî, lênihêrîna tenduristî û qanûnê de agahdar bikin. Halusînasyon dikare bibe sedema bijarteyên xirab û encamên cidî.

  4. Encamên dadrêsî: Hilberîna nerast an xapînok dibe ku pêşdebir û bikarhêneran AI-ê bi berpirsiyariya qanûnî ya potansiyel re ragihîne [5].


Pêdivî ye ku pergalên AI-ê yên hêzdar tenê gava ku em pê bawer bin ku dê bandorên wan erênî bin û xetereyên wan dê bêne rêvebirin bêne pêşve xistin, "got nameya ku ji hêla Enstîtuya Pêşerojê ya Jiyanê ve hatî weşandin. Ev pirsê dike: Ma nijada mirovî ji AI-yê re amade ye an dike. ji me re bêtir dem hewce ye ku em ji encamên wê yên bêsînor re amade bibin [6]?



Çavkanî:

  1. Gross, D. (2011, October 4). Apple introduces Siri, web freaks out | CNN business. CNN. https://edition.cnn.com/2011/10/04/tech/mobile/siri-iphone-4s-skynet/index.html

  2. OpenAI API. (n.d.). OpenAI API. https://platform.openai.com/docs/models/overview

  3. Piper, K. (2022, December 15). ChatGPT has given everyone a glimpse at AI’s astounding progress. Vox. https://www.vox.com/future-perfect/2022/12/15/23509014/chatgpt-artificial-intelligence-openai-language-models-ai-risk-google

  4. 8 big problems with OpenAI's ChatGPT. (2022, December 22). MUO. https://www.makeuseof.com/openai-chatgpt-biggest-probelms/

  5. Gungor, A. (2023, March 22). ChatGPT: What are hallucinations and why are they a problem for AI systems. Bernard Marr. https://bernardmarr.com/chatgpt-what-are-hallucinations-and-why-are-they-a-problem-for-ai-systems/

  6. Kumar, D. (2023, March 30). Are humans ready for artificial intelligence (AI)? Times of India Blog. https://timesofindia.indiatimes.com/blogs/everything-under-the-sun/are-humans-ready-for-artificial-intelligence-ai/

Comments


bottom of page