L’esame della acutezza visiva viene spesso considerato un semplice esame routinario privo di reale importanza, in realtà l’attento studio dei valori di visus (decimi di vista) nei pazienti risulta spesso determinante per la diagnosi e la cura di alcune delle più frequenti patologie oculari. Tale manovra non dovrebbe mai essere demandata all’ottico che non è in grado né professionalmente né legalmente di diagnosticare eventuali difetti refrattivi associati e di prescrivere occhiali o lenti e contatto, ad eccezione per la presbiopia e la miopia semplice.

La più frequente delle operazioni diagnostiche oftalmologiche, la misura dell’acutezza visiva “di ricognizione” (quella che viene ottenuta utilizzando le comuni tavole ottotipiche cioè le comuni tabelle con le lettere o le E di Albini per l’età prescolare), sta attraversando, ormai da più di un decennio, una fase di profonda revisione critica che si manifesta con l’impiego di nuove unità di misura (es.: logMAR), di termini insoliti (es.: progressione, “gold standard”, “termination rules”, tecniche “adattive”) e di concetti epidemiologici e statistici (es.: ripetibilità, validità, intervalli di confidenza, media, deviazione standard).
Questo sommovimento è dovuto alla necessità di una razionalizzazione ed omologazione delle metodiche di misura dell’acutezza visiva che si è resa indispensabile per poter utilizzare studi multicentrici allo scopo di definire l’efficacia dei trattamenti di alcune patologie oculari (cataratta, retinopatia diabetica, cheratocono, ambliopia ecc.).
Tutto ciò ha creato uno stato di disagio aggravato dal fatto che la consultazione, sempre più diffusa, della letteratura anglosassone ha reso inevitabile la necessità di familiarizzarsi con sistemi di notazione dell’acutezza visiva estranei alle nostre abitudini e, quel che è peggio, con formulazioni statistiche ostiche. E’ peraltro vero che la precisa ed accurata determinazione del vero valore di acutezza visiva presente nel paziente consente oggi di attuare tutte quelle manovre diagnostico terapeutiche che non si limitano alla sola prescrizione di un paio di occhiali.

Nell’esame della acutezza visiva in età pediatrica è spesso inveterato l’uso di ottotipi figurati che però sono ormai da proscrivere perché considerati imprecisi e non attendibili in quanto sia necessitano dell’interpretazione delle figure che varia a seconda dei contesti culturali sia presentano l’handicap di ripetere le stesse figure a diverse grandezze consentendo di riconoscere la forma anche a coloro che non ne discriminano i particolari, causando spesso una sovrastima della vera acutezza visiva. Per tale motivo rimangono a livello internazionale solo un ricordo storico della misura della acutezza visiva in età prescolare.
L’utilizzo più frequente nell’età pediatrica è riservato all’ottotipo con le E di Albini che consente un esame più corretto. Ma va considerato che le normali tabelle o i proiettori a progressione decimale comunemente usati non consentono assolutamente una valutazione precisa ed accurata della acutezza visiva  in quanto consentono al bambino di indovinare il simbolo ottotipico con una probabilità del 25% ed inoltre non consentono di misurare le piccole variazione della acutezza visiva, specie alle acutezze più basse dove invece sarebbe necessario per monitorare il recupero visivo delle ambliopie.

 Per tale motivo cerchiamo adesso di mettere un po’ d’ordine e di spiegare la necessità di utilizzare una scala particolare detta logaritmica che è caratterizzata dall’avere una progressione proporzionalmente costante che consente una misura accurata della acutezza visiva a qualsiasi livello ci si trovi, monitorando così anche le più piccole variazioni.

 LE NOTAZIONI DELL’ACUTEZZA VISIVA

Le misure dell’acutezza visiva possono essere espresse (”cifrate”) con le seguenti differenti modalità (e il fatto che ce ne siano diverse ha contribuito non poco a confondere le idee!).

La FRAZIONE DI SNELLEN è un metodo di notazione diffusamente impiegato nel mondo anglosassone. Al numeratore della frazione si colloca la distanza (espressa in “piedi” o in metri) alla quale l’esame viene effettuato e al denominatore quella alla quale il dettaglio caratteristico dell’ottotipo riconosciuto sottende un angolo visuale di 1 minuto primo, cioè di 1/60 di grado: ne risultano notazioni del tipo 20/40, 20/200 (in piedi) o 6/30, 4/20 (in metri). Il vantaggio di questa “notazione” (quando viene correttamente impiegata!) consiste nel fatto che il numeratore della frazione indica la distanza a cui l’esame è stato effettuato. Il suo inconveniente consiste nel fatto che questa modalità di indicazione della misura viene usata solo nei paesi anglosassoni e risulta perciò di difficile interpretazione nei paesi “latini” dove viene impiegato il sistema metrico decimale

La NOTAZIONE DECIMALE, esprime la misura dell’acutezza visiva sotto forma di frazione decimale (es.: 1/10, 5/10, ecc.) o di cifra decimale (0,1 - 0,3 - 1,0 - 1,6 - ecc.). Il vantaggio di questa notazione consiste nel fatto che è universalmente adottata in Europa. Ma con questo tipo di misura gli inconvenienti sono numerosi e non trascurabili:
- questa modalità di notazione non fornisce nessuna indicazione sulla distanza a cui l’esame è stato effettuato;
- questa notazione comporta che la progressione delle dimensioni degli ottotipi è tale da realizzare una progressione  aritmetica della scala di misura (0,1 - 0,2 - 0,3 - 0,4 - ecc.)  nella quale l’entità percentuale dell’aumento (o riduzione) delle dimensioni degli ottotipi è differente ad ogni gradino della scala (l’acutezza visiva si dimezza passando dal livello “0,2” a quello “0,1” mentre si riduce solo del 10% passando dal livello “10/10” a quello “9/10”);

La NOTAZIONE LOGARITMICA (logMAR) , oltre ad essere l’ultima arrivata, è l’unità di misura che attualmente crea le maggiori difficoltà sia per capire che cosa significhi sia per individuare la ragione per la quale viene ormai sistematicamente adottata negli studi “scientifici” in cui il parametro di giudizio è costituito da una misura dell’acutezza visiva.

Cerchiamo di chiarire:

Le misure dell’acutezza visiva sono gli indicatori dei vari livelli delle dimensioni degli ottotipi (lettere o E di Albini) presenti in una tavola ottotipica la cui grandezza cambia progressivamente passando dagli ottotipi più grandi a quelli più piccoli.

In base a quale criterio viene operato questo cambiamento? Per rispettare una fondamentale legge della psicofisica (legge di Weber), oltre che per coerenza con importanti dati sperimentali, la misura dell’acutezza visiva deve essere eseguita con una scala di misura in cui le differenze fra le varie dimensioni degli ottotipi (lettere, E di Albini) siano tali per cui ad ogni gradino si produca lo stesso aumento (o riduzione) percentuale della dimensione degli stimoli: in altre parole le varie dimensioni degli stimoli (cioè degli ottotipi) costituiscono una progressione proporzionale costante che produce cioè un aumento o una riduzione di queste dimensioni che è sempre della stessa “percentuale” (cosa che abbiamo detto non avvenire con la notazione decimale).

Questo tipo di scala logMAR o logaritmica consente, come si è detto, di utilizzare tutte le procedure statistiche descrittive ed inferenziali di tipo “parametrico” (media, deviazione standard, limiti di confidenza, analisi della varianza, ecc.) che permettono all’esaminatore di calcolare l’attendibilità del risultato raggiunto considerando anche la collaborazione reale del paziente ed avvicinandosi quindi il più possibile alla vera acutezza visiva del soggetto esaminato.

E siccome con questa scala “logaritmica” viene misurato il MAR, cioè il “minimo angolo di risoluzione” mediante il quale si definisce l’acutezza visiva “di ricognizione”, l’unità di misura utilizzata viene definita “logMAR”. Il “logMAR” costituisce quindi il logaritmo decimale dell’angolo visuale sotteso dal dettaglio caratteristico degli ottotipi misurato in sessantesimi di grado (minuti primi).

Quali sono i vantaggi della notazione logMAR?

Quello di produrre una scala di misura dell’acutezza visiva del tipo “a intervalli proporzionalmente costanti” la quale consente di utilizzare metodi statistici: con le misure di acutezza visiva espresse in logMAR si può calcolare la media della acutezza visiva, la deviazione standard ed i limiti od intervallo di confidenza. Quando misuriamo l’acutezza visiva con queste metodiche noi facciamo sempre una media tra le risposte corrette e quelle sbagliate, media che si situa tra la risposta più bassa e quella più alta (intervallo o limiti di confidenza). Ciò consente di misurare l’acutezza visiva in maniera precisa ed accurata avvicinandoci con una elevata probabilità di avere ragione alla vera acutezza visiva. Ossia la misura della acutezza visiva è sempre una media delle risposte date dal paziente e non un valore troncato ed assoluto come avviene con la notazione decimale, e si colloca in un intervallo che va dalla risposta di valore più basso e quella di valore più alto.

In quali occasioni quindi risulta quindi  obbligatorio l’utilizzo della scala logMAR e siamo per cui costretti a modificare abitudini inveterate?

  • La conversione in unità logMAR delle misure di acutezza visiva diventa inevitabile ed obbligatoria  tutte le volte che si intendono effettuare trattamenti statistici delle misure di acutezza visiva (medie e deviazioni standard ecc!) che consentono la determinazione della “vera acutezza visiva del paziente”.
  • Risulta necessaria per quanti consultano la letteratura scientifica contemporanea, specie quella anglosassone, e frequentano congressi; o per quelli che progettano ricerche e scrivono lavori scientifici nei quali i risultati delle indagini consistono in misure dell’acutezza visiva.
  • È indispensabile per quanti nell’attività diagnostica quotidiana necessitino di metodi di misura dell’acutezza visiva che consentano loro di distinguere tra una variazione della misura di AV che segnala una modificazione in meglio o in peggio della “visione”, legata o meno ad un trattamento terapeutico (ad esempio l’occlusione nella gestione dell’ambliopia) ed una variazione dell’AV che rappresenta soltanto una manifestazione della “imprecisione” del metodo di misura utilizzato. Questa necessità è sentita in modo particolare nel trattamento dell’ambliopia dove anche piccole variazioni dell’acutezza visiva comportano spesso  immediate modificazioni delle modalità di trattamento.