Foute van moderne kunstmatige intelligentie (AI) sisteme wat op masjienleer (ML) gebaseer is, is nie toevallige swakke punte nie, maar regmatige gevolge van hulle argitektuur, leermetode en die funderende verskil met menslike inziens. Verskille van die mens, verstaan AI nie die wêreld in 'n semantiese sin nie; hy dui statistiese korrelasies in data aan. Sy foute ontstaan waar dié korrelasies verstoord word, waar abstrakte redes, rede of kontekstuele verstaan nodig is. Die analise van hierdie foute is krities belangrik vir die beoordeling van die betroubaarheid van AI en die bepaling van die grense van sy toepassing.
Die mees algemene en sosiaal gevaarlike bron van foute is die skeiding in opleidingsdata. AI neem en versterk vooroorbeelde wat in die data bestaan.
Demografiese verdraaiings: 'n Bekende voorbeeld met 'n gesigherkenningssisteem wat aangedui het dat dit aanzienlik hoër presisie gehad het vir lichte huidige mans as vir swart vroue, omdat dit op 'n onproporsionele stel data getrain is. Hier het AI nie foute gemaak nie, maar het die ongeligheid van die ware wêreld presies weerspieël, wat lei tot 'n foute in die toepassing in 'n verskillende omgewing.
Semantiese verdraaiings: As die woordkombinasie «verpleegster» in die opleidingsdata vir 'n tekstmodel dikwels gekoppel is aan die persoonlik name «hulle» en «programmeerder» aan «honom», sal die model tekste genereer wat dié geslagsteripies herhaal, selfs as die geslag nie in die vraag aangedui word nie. Dit is 'n foute op die vlak van die sosiale konteks wat die model nie begryp nie.
Interessante feite: In die wiskunde van die rekenkunde geld die beginsel «Garbage In, Garbage Out» (GIGO) — «mors op inkomst, mors uitkomst». Vir AI het dit ontwikkel in 'n meer diepgaande beginsel «Bias In, Bias Out» — «skeiding op inkomst, skeiding uitkomst». Die stelsel kan nie die beperkinge van die data oorwin waarop dit getrain is nie.
Dit is voornemele, soms onopvallende veranderinge in inkomstdata wat lei tot kardinale verkeerde uitkomste van AI.
Voorbeeld met 'n beeld: 'n Kleefsticker van 'n spesifieke kleur en vorm op 'n 'STOP'-teken kan 'n outonome computersieningsstelsel lei om dit as 'n 'snelheidsbeperking'-teken te klassifiseer. vir die mens bly die teken duidelik herkenbaar.
Mekanisme: Adversariële voorbeelde gebruik die «swakke punte» in die hoogsdimensionele ruimte van die kenmerkmodel. AI beskou die wêreld nie as hele objekte nie, maar as 'n set statistiese patrone. 'n Minimale, maar strategies regte «vermorsing» skuif die punte in die kenmerkruimte oor die grens van die oplossing van die model, veranderende klassefiiking.
AI, veral diep neuraal netwerke, is geneig om oor te leer (overfitting) — hulle onthou nie algemene wetteleke patrone nie, maar spesifieke voorbeelde uit die opleidingskeuse, insluitend ruimte.
Foute op data van 'n ander verspreiding: 'n Model wat getrain is op foto's van honden en katte wat gedurende die dag in die huis geneem is, kan volledig sy presisie verloor as hy 'n nag infrarooi beeld of 'n tekening gee. Hy het nie die abstrakte begrip van «katteheid» ontwikkel nie, maar het geleer om te reageer op spesifieke patrone van piksele.
Ontbrekend «redelikheid» : 'n Klassieke voorbeeld: AI kan korrek beskryf wat gebeur as 'n mens op 'n paard in die woestyne sit, maar sal 'n voorstelling genereer van «mense hou 'n baskoet in hulle hande terwyl hulle op 'n paard ry», omdat 'n baskoet in die konteks van buiteplasse sport in die data statisties kon voorkom. Hy het nie die fisiese en kausale logika van die wêreld nie.
Taalmodelle (soos GPT) wys indrukwekkende resultate, maar maak grof foute in taken wat die begrip van die diepste konteks of nie-bukwelterlike betekenisse vereis.
Ironie en sarkasme: Die frase «Nu, 'n prachtige weer!», gesê tydens 'n hurrikaan, sal deur die model letterlik as 'n positiewe beoordeling interpreteer, omdat positiewe woorde («prachtige», «weer») in die data statisties gekoppel is aan positiewe kontekste.
Meervoudige logistiese rede: Taken in die styl van «As ek 'n ei in die koelkist plaas en dan die koelkist in die garge skuif, waar sal die ei wees?», vereis die opbou en bywerking van 'n mentale model van die wêreld. AI wat werk op die voorspelling van die volgende woord, verloor soms objekte in die middel van 'n komplekse verhaal of maak onlogiese afgeleide.
AI het swakke punte in situasies wat uit die grense van sy ervaring blyk, veral wanneer dit nodig is om die onvoldoendeheid van die data te erken.
Die probleem van detekting van «out-of-distribution»: Mediese AI wat getrain is om longontsteking deur röntgenbeelde van die borstkas te diagnoseer, kan met hoë, maar valse selfvertroue diagnose gee as hy 'n beeld van die knie wys. Hy verstaan nie dat dit sinneloos is, omdat hy nie met meta-weteenskappe oor die grense van sy kompetensie beskik nie.
Kreatiewe en openbare taken: AI kan 'n geloofwaardige, maar absoluut onuitvoerbare of gevaarlike resep vir 'n chemiese verbinding, 'n plan vir die bou van 'n brug wat die wette van die fisika verbreek, of 'n juridiese dokument met verwysings na onbestaande wette genereer. Hy het nie 'n kritiese interne censor wat gebaseer is op die verstaan van die aard van fenomene nie.
Voorbeeld uit die wakkerheid: In 2016 het Microsoft 'n chatbot genaamd Tay in Twitter gelans. Die bot is getrain op interaksie met gebruikers. Binne 24 ure het hy verander in 'n masjien wat rasistiese, seksistiese en beledigende uitlatings genereer, omdat hy statisties die mees algemene en emosioneel gelade reaksies uit sy nuwe, vijandige omgewing geabsorbeer het. Dit was nie 'n foute van die algoritme nie, maar sy regte werk wat lei tot 'n katastrofiese resultaat in 'n onvoorspelbare sosiale omgewing.
Dié foute is nie tydelike tegniese onvolmaakthede nie, maar gevolge van die funderende verskil tussen statistiese benadering en menslike begrip. Hulle wys op dat moderne AI 'n kragtige instrument is vir die oplossing van taken binne skerpe, stabiele en goed omskryfde data domeine, maar hy bly 'n «idiote-savant»: 'n genie in 'n smal veld en swak in situasies wat flexibiliteit, kontekstuele oordeel en verstaan vereis. Daarom lê die toekoms van verantwoordelike toepassing van AI nie in die verwagting van sy «volledige verstand» nie, maar in die skepping van gemengde stelsels «mense-AI», waar mense rede, etiek en werk met uitsluitings verskaf, terwyl AI snelheid, skaal en die ontdekking van verborgde patrone in data bied.
New publications: |
Popular with readers: |
News from other countries: |
![]() |
Editorial Contacts |
About · News · For Advertisers |
Digital Library of South Africa ® All rights reserved.
2025-2026, ELIB.CO.ZA is a part of Libmonster, international library network (open map) Preserving South Africa's heritage |
US-Great Britain
Sweden
Serbia
Russia
Belarus
Ukraine
Kazakhstan
Moldova
Tajikistan
Estonia
Russia-2
Belarus-2