Apples studie visar var AI brister i komplexa uppgifter

Apples studie nyanserar bilden av AI:s kapacitet. Trots imponerande framsteg inom en rad avgränsade områden saknar teknologin ännu den typ av anpassningsbar och abstrakt problemlösning som kännetecknar mänsklig intelligens. Bild: Pixabay, Creative Commons Lic. Kredit: Tekoaly
Apples studie nyanserar bilden av AI:s kapacitet. Trots imponerande framsteg inom en rad avgränsade områden saknar teknologin ännu den typ av anpassningsbar och abstrakt problemlösning som kännetecknar mänsklig intelligens. Bild: Pixabay, Creative Commons Lic. Kredit: Tekoaly

Apple har offentliggjort en forskningsstudie som kastar nytt ljus över begränsningarna hos så kallade stora resonemangsmodeller – Large Reasoning Models, LRM – inom artificiell intelligens. Studien tyder på att även de mest avancerade AI-modellerna misslyckas med att efterlikna mänskligt tänkande när uppgifterna blir tillräckligt komplexa.

Forskningen jämförde LRM-modeller med traditionella stora språkmodeller – Large Language Models, LLM – i olika problemsituationer. Resultaten visade att även om LRM-tekniken klarar vissa strukturella uppgifter bättre än LLM, så uppstår stora brister när uppgifterna kräver högre grad av anpassningsförmåga och abstrakt tänkande.

Enligt Apples forskare är den så kallade ”generella resonemangsförmågan” fortfarande otillräcklig hos dagens AI. Denna förmåga avser AI:s kapacitet att tillämpa tidigare inlärda strategier på nya och förändrade situationer – något människor ofta gör utan ansträngning.

– En människa kan exempelvis lära sig att cykla på en typ av cykel, och sedan snabbt anpassa sig till andra typer, konstaterar forskarna i rapporten.

Små förändringar ger stora problem för AI

Studien visar att AI-modeller klarar uppgifter väl när problemen liknar sådana de tidigare tränats på. Men om problemets struktur ändras, även om det är av samma typ, kan modellernas förmåga försämras drastiskt.

– För avancerade LRM-modeller kollapsar noggrannheten bortom en viss nivå av komplexitet, skriver forskarna. De drar slutsatsen att både generaliseringsförmågan och den kognitiva flexibiliteten är begränsade, även i de mest sofistikerade AI-lösningarna.

I experimenten identifierades också ett mönster där enklare uppgifter löstes bäst av LLM-modeller. Dessa är mer energieffektiva och kräver mindre beräkningskraft. Vid medelsvåra uppgifter presterade LRM-modeller bättre, särskilt när de använde tekniker som Chain-of-Thought – en metod för stegvis logisk analys. Men vid ännu högre komplexitetsnivåer visade sig båda modelltyperna brista.

– När uppgifterna blev för svåra började alla modeller misslyckas, heter det i studien.

Begränsningar kvarstår trots tekniska framsteg

Apples forskare pekar på att dagens AI-motorer i praktiken ofta använder mönsterigenkänning snarare än genuint resonemang. Detta gör dem sårbara för variationer i problemformuleringen.

Apple ifrågasätter AI:s förmåga till mänskligt liknande tänkande

Resultaten antyder att även modeller som tränats på miljarder exempel inte nödvändigtvis utvecklar förståelse på ett mänskligt sätt. I stället är deras förmågor knutna till vad de redan sett, och deras prestanda minskar kraftigt så snart de ställs inför något som skiljer sig från träningen.

Det här innebär en viktig påminnelse för utvecklare, användare och beslutsfattare: trots den snabba utvecklingen inom artificiell intelligens krävs fortsatt forskning för att uppnå en mer robust och generaliserbar teknik.

Källa: Apple AI/ML Research