Apple zapowiada nowe ułatwienia dostępu, w tym funkcje Eye Tracking, Music Haptics i Vocal Shortcuts


Nowe ułatwienia dostępu zapowiedziane przez Apple na ten rok obejmują funkcję Eye Tracking, która pozwala użytkownikowi na sterowanie iPadem i iPhonem przy użyciu samych oczu.
Firma Apple zapowiedziała wprowadzenie jeszcze w tym roku nowych ułatwień dostępu, w tym funkcji Eye Tracking pozwalającej osobom z niepełnosprawnościami fizycznymi na sterowanie iPadem lub iPhonem przy użyciu oczu. Dodatkowo pojawi się udogodnienie Music Haptics zapewniające głuchym i niedosłyszącym użytkownikom nowe sposoby doświadczania muzyki za pomocą znajdującego się w iPhonie sygnalizatora taktylnego. Z kolei funkcja Vocal Shortcuts umożliwi wykonywanie zadań poprzez wygenerowanie specjalnego dźwięku, a Vehicle Motion Cues pomoże złagodzić objawy choroby lokomocyjnej podczas korzystania z iPhone’a lub iPada w jadącym pojeździe. Więcej ułatwień dostępu trafi również do systemu visionOS. Zapowiedziane funkcje opierają się na połączeniu potężnych możliwości sprzętu i oprogramowania Apple, w tym układu scalonego Apple, a także sztucznej inteligencji i działających na urządzeniu algorytmów uczenia maszynowego.
Jednocześnie wpisują się one w realizowane od dekady zobowiązanie firmy Apple do tworzenia produktów dla wszystkich użytkowników.

„Jesteśmy głęboko przekonani, że innowacje mogą wpływać na życie ludzi i je wzbogacać”, oświadczył Tim Cook, dyrektor generalny Apple. „Właśnie dlatego firma Apple już od blisko 40 lat kładzie duży nacisk na inkluzywność swoich produktów, której wyrazem są ułatwienia dostępu wbudowane w DNA naszego sprzętu i oprogramowania. Nieustannie przesuwamy granice technologii, a zapowiadane funkcje odzwierciedlają nasze długoletnie zobowiązanie, żeby zapewniać wszystkim naszym użytkownikom jak najlepsze doświadczenia”.

„Co roku dokonujemy przełomu w dziedzinie ułatwień dostępu”, podsumowuje Sarah Herrlinger, starsza dyrektorka Apple w pionie Accessibility Policy and Initiatives. „Dzięki udostępnieniu nowych sposobów komunikacji, sterowania urządzeniami czy poruszania się w świecie wprowadzane funkcje wpłyną na życie wielu różnych użytkowników”.

Eye Tracking debiutuje na iPadzie i iPhonie

Funkcja Eye Tracking wspierana sztuczną inteligencją oferuje użytkownikom wbudowane rozwiązanie do sterowania iPadem i iPhonem przy użyciu samych oczu. Funkcja Eye Tracking, która została opracowana z myślą o użytkownikach z niepełnosprawnościami fizycznymi, korzysta z przedniego aparatu, by w zaledwie kilka sekund wprowadzić ustawienia i wykonać kalibrację. Ponadto działające na urządzeniu algorytmy uczenia maszynowego sprawiają, że wszystkie dane użyte do konfiguracji funkcji i jej sterowania są bezpiecznie przechowywane na urządzeniu bez wysyłania ich do Apple.
Funkcja Eye Tracking działa w aplikacjach z systemem iPadOS i iOS i nie wymaga dodatkowych urządzeń ani akcesoriów. Dzięki Eye Tracking użytkownicy mogą przechodzić pomiędzy elementami aplikacji oraz korzystać z narzędzia Sterowanie zatrzymaniem do aktywacji poszczególnych elementów i uzyskiwania dostępu do dodatkowych funkcji, takich jak fizyczne przyciski czy machnięcia, oraz innych gestów, wyłącznie za pomocą oczu.

Funkcja Music Haptics ułatwia dostęp do piosenek

Funkcja Music Haptics otwiera przed niesłyszącymi lub niedosłyszącymi użytkownikami nowe sposoby doświadczania muzyki odtwarzanej z iPhone’a. Po włączeniu tego ułatwienia dostępu sygnalizator taktylny wbudowany w iPhone’a będzie odtwarzać stuknięcia, teksturę oraz bardziej wyczuwalne wibracje odwzorowujące brzmienie muzyki. Funkcja Music Haptics obsługuje miliony utworów w katalogu Apple Music i zostanie udostępniona deweloperom jako API, tak aby zwiększyć dostępność muzyki w tworzonych przez nich aplikacjach.
Funkcja Music Haptics otwiera przed niesłyszącymi i niedosłyszącymi użytkownikami nowe sposoby doświadczania muzyki odtwarzanej z iPhone’a.

Nowe funkcje obsługują więcej sposobów mówienia

Udogodnienie Vocal Shortcuts daje użytkownikom iPhone’a i iPada możliwość przypisania własnych zrozumiałych dla Siri wypowiedzi aktywujących skróty i realizujących złożone zadania. Kolejne nowe ułatwienie, Listen for Atypical Speech, pozwala użytkownikom na rozbudowanie funkcji rozpoznawania mowy o większą liczbę różnych sposobów mówienia. Funkcja Listen for Atypical Speech rozpoznaje wzorce mowy użytkownika za pomocą działających na urządzeniu algorytmów uczenia maszynowego. Oba ułatwienia powstały z myślą o użytkownikach z trwałymi lub postępującymi schorzeniami upośledzającymi mowę, takimi jak porażenie mózgowe, stwardnienie zanikowe boczne (ALS) lub stany poudarowe, a udostępniany w tych ułatwieniach wyższy poziom personalizacji i sterowania bazuje na rozwiązaniach wprowadzonych w systemie iOS 17 dla osób niemówiących lub zagrożonych utratą mowy.
Udogodnienie Vocal Shortcuts daje użytkownikom iPhone’a i iPada możliwość przypisania własnych zrozumiałych dla Siri wypowiedzi aktywujących skróty i realizujących złożone zadania.

„Sztuczna inteligencja jest w stanie udoskonalić rozpoznawanie mowy milionów ludzi z nietypowym sposobem mówienia i z przyjemnością patrzymy, jak Apple przynosi konsumentom wspierające ten proces nowe ułatwienia dostępu”, powiedział Mark Hasegawa-Johnson, główny badacz w projekcie Speech Accessibility Project prowadzonym przez Beckman Institute for Advanced Science and Technology na uczelni University of Illinois Urbana-Champaign. „W swoich założeniach projekt Speech Accessibility Project miał być szerokozakrojonym, wspieranym lokalnie działaniem pomagającym przedsiębiorstwom i uczelniom w usprawnianiu i zwiększaniu skuteczności rozpoznawania mowy, a firma Apple, będąc jednym z orędowników ułatwień dostępu, umożliwiła realizację tych założeń inicjatywy Speech Accessibility Project”.

Funkcja Vehicle Motion Cues pomaga złagodzić chorobę lokomocyjną

Vehicle Motion Cues to nowa funkcja wprowadzana na iPhone’a i iPada, która ułatwia łagodzenie objawów choroby lokomocyjnej u osób w jadących pojazdach. Badania pokazują, że choroba lokomocyjna jest zwykle powodowana przez konflikt sensoryczny pomiędzy tym, co osoba widzi, a tym, co czuje. W rezultacie część użytkowników podróżujących pojazdami nie może komfortowo korzystać z iPhone’a lub iPada. Animowane kropki funkcji Vehicle Motion Cues wyświetlane na krawędzi ekranu pomagają złagodzić konflikt sensoryczny, nie przeszkadzając przy tym użytkownikowi w skupieniu się na głównej treści. Korzystając z czujników wbudowanych w iPhone’a i iPada, Vehicle Motion Cues wykrywa, kiedy użytkownik znajduje się w jadącym pojeździe, i adekwatnie reaguje. Funkcję można skonfigurować tak, by automatycznie wyświetlała się na iPhonie. Można ją też włączać i wyłączać w Centrum sterowania.

CarPlay zyskuje Sterowanie głosowe oraz więcej zaktualizowanych ułatwień dostępu

Ułatwienia dostępu wprowadzane w CarPlay obejmują Sterowanie głosowe, Filtry barwne i Rozpoznawanie dźwięków. Sterowanie głosowe pozwala użytkownikom na poruszanie się w usłudze CarPlay oraz sterowanie aplikacjami tylko za pomocą głosu. Rozpoznawanie dźwięków daje niesłyszącym i niedosłyszącym kierowcom oraz pasażerom możliwość włączenia alertów informujących ich o dźwięku klaksonu i syren. Użytkownikom mającym trudności w rozpoznawaniu kolorów Filtry barwne uproszczą wizualnie interfejs usługi CarPlay przy użyciu dodatkowych ułatwień dostępu takich jak Pogrubiony tekst i Duża czcionka.

Więcej ułatwień dostępu w visionOS

Udogodnienia pojawiające się w visionOS w tym roku będą obejmować działające w całym systemie Podpisy na żywo ułatwiające każdemu użytkownikowi – w tym osobom niesłyszącym i niedosłyszącym – śledzenie dialogu w rozmowach na żywo oraz w treściach dźwiękowych z aplikacji. Podpisy na żywo w aplikacji FaceTime systemu visionOS, pozwalają większej liczbie użytkowników na przeżycie wyjątkowych wrażeń związanych z kontaktem i współpracą z ich postacią cyfrową. Apple Vision Pro umożliwi przenoszenie napisów za pomocą paska okna podczas odtwarzania treści w formacie Apple Immersive Video oraz obsługę dodatkowych aparatów słuchowych i procesorów słuchu Cochlear wykonanych w standardzie MFi (Made for iPhone). Ułatwienia dostępu przewidziane dla dysfunkcji wzroku zostaną poszerzone o funkcje Zmniejsz przezroczystość, Odwrócenie inteligentne i Przygaszaj rozbłyski z myślą o osobach niedowidzących lub chcących uniknąć jasnych świateł bądź częstych błysków.
Nowe funkcje poszerzają pulę kilkudziesięciu ułatwień dostępu już dostępnych w Apple Vision Pro, które oferują użytkownikom elastyczne sposoby wprowadzania danych oraz intuicyjny interfejs opracowany z myślą o wielu różnych grupach użytkowników. Funkcje takie jak VoiceOver, Zoom i Filtry barwne dają osobom niewidzącym lub niedowidzącym możliwość korzystania z technologii spatial computing, a funkcje takie jak Dostęp nadzorowany wspierają użytkowników z ograniczeniami kognitywnymi. Użytkownicy mogą sterować Vision Pro poprzez dowolne połączenie ruchu oczu, rąk oraz głosu, a ułatwienia dostępu takie jak Sterowanie przełącznikami, Czynności dźwiękowe i Sterowanie zatrzymaniem stanowią również pomoc dla osób z niepełnosprawnościami fizycznymi.

„Apple Vision Pro jest bez wątpienia najłatwiej dostępną technologią, z jakiej kiedykolwiek miałem okazję korzystać”, podkreśla Ryan Hudson-Peralta, inżynier produktu z Detroit, konsultant ds. ułatwień dostępu oraz współzałożyciel Equal Accessibility LLC. „Sam będąc osobą urodzoną bez rąk oraz niepotrafiącą chodzić, zdaję sobie sprawę, że świat nie został zaprojektowany dla osób takich jak ja. Niesamowite jest więc zobaczyć, co może zrobić system visionOS. Stanowi on potwierdzenie potężnych możliwości oraz istotności projektowania opartego na inkluzywności i łatwości dostępu”.

Dodatkowe uaktualnienia

  • Użytkownicy niewidzący lub niedowidzący znajdą w VoiceOver nowe głosy, elastyczne pokrętło Voice Rotor, programowalne elementy sterowania głośnością oraz możliwość dostosowania skrótów klawiszowych VoiceOver na komputerze Mac.
  • Aplikacja Lupa oferuje nowy tryb Reader oraz możliwość łatwego uruchamiania trybu wykrywania za pomocą przycisku czynności.
  • Dla osób posługujących się alfabetem Braille’a wprowadzony został nowy, usprawniający sterowanie oraz edycję tekstu sposób uruchamiania i użytkowania trybu Wejście ekranu Braille’a. Ponadto tryb Wejście ekranu Braille’a jest teraz dostępny dla języka japońskiego, obsługiwany jest wielowierszowy tekst pismem Braille’a z wyświetlacza Dot Pad oraz istnieje możliwość wyboru różnych tablic źródłowych i docelowych.
  • Użytkownicy niedowidzący zyskają funkcję Hover Typing powiększającą tekst wpisywany w polu tekstowym w czcionce i kolorze wybranych przez użytkownika.
  • Funkcja Głos indywidualny przeznaczona dla osób zagrożonych utratą mowy będzie dostępna w języku chińskim mandaryńskim. Użytkownicy mający trudności w wymawianiu lub czytaniu pełnych zdań będą mogli za pomocą krótkich fraz utworzyć własny głos indywidualny.
  • Funkcja Mowa na żywo wspierająca osoby niemówiące zostanie poszerzona o kategorie oraz możliwość jednoczesnego korzystania z ułatwienia Podpisy na żywo.
  • Użytkownicy z niepełnosprawnościami fizycznymi będą mogli za pomocą Virtual Trackpad w funkcji AssistiveTouch sterować swoim urządzeniem na niewielkim obszarze ekranu pełniącym funkcję skalowalnego gładzika.
  • Funkcja Sterowanie przełącznikami zyska możliwość użycia kamer iPhone’a i iPada do odczytywania gestów stuknięcia palcem jako gestów oznaczających przełączenie.
  • Sterowanie głosowe będzie obsługiwać własne słowniki i złożone słowa.

 

Źródło: Newsroom Apple