Autor: Tomasz Wojczak
Naukowcy z nowojorskiego Uniwersytetu Columbia we współpracy z firmą Apple opracowali prototyp systemu opartego na sztucznej inteligencji, który wspiera osoby niewidome i słabowidzące w poruszaniu się po ulicach miast.
Narzędzie to nosi nazwę SceneScout. Aplikacja ta działa w oparciu o Apple Maps API i model językowy GPT-4o. Program tworzy opisy przestrzeni miejskiej, która dostępna jest na fotografiach wykonanych z poziomu ulic. Omawiany prototyp oprogramowania działa w dwóch trybach:
- Route Preview. Tryb ten zawiera opisy trasy uwzględniające jakość chodników, przejść dla pieszych i punkty orientacyjne,
- Virtual Exploration. Tryb ten umożliwia wirtualne poznawanie różnych miejsc zgodnie z preferencjami użytkowników.
Osoby, które testowały omawiane narzędzie bardzo wysoko oceniły działanie aplikacji. Podczas testów wystąpiły jednak problemy dotyczące dokładności opisu, takie jak na przykład błędne dane o działaniu sygnalizacji dźwiękowej. Okazało się również, że użytkownicy testujący program SceneScout potrzebują bardziej ścisłych i spersonalizowanych informacji o przestrzeni, w której się poruszają. Testerzy chcieliby również, by omawiana aplikacja pracowała w czasie rzeczywistym, wysyłając osobom niewidomym i niedowidzącym komunikaty przez słuchawki.
Prototyp narzędzia o nazwie SceneScout pokazuje możliwości sztucznej inteligencji w zwiększaniu stopnia dostępności przestrzeni miejskiej dla osób z niepełnosprawnością wzroku. Omawiana aplikacja nie jest w chwili obecnej produktem rynkowym, lecz jej działanie pokazuje, że w przyszłości narzędzie to zwiększy stopień samodzielności osób niewidomych i słabowidzących, gdyż znacząco ułatwi im poruszanie się po ulicach miast.
Opracowano w oparciu o strony dostępne tutaj, tutaj i tutaj. Grafikę wykorzystaną w nagłówku zaczerpnięto ze strony dostępnej tutaj.