La semaine dernière, Apple annonçait ResearchKit 2.0, qui sera disponible en même temps que iOS 12.

ResearchKit est une interface de programmation qu’Apple a développée pour faciliter la création d’applications mobiles pour la recherche médicale.

Depuis, ResearchKit a été exploité pour des études sur le sommeil, l’autisme, l’épilepsie, les mélanomes, la maladie de Parkinson et bien d’autres.

Cette semaine, Apple détaille les avancées de la seconde version de ResearchKit.

L’interface utilisateur est modifiée pour correspondre aux dernières lignes directrices de iOS : navigation simplifiée avec le repositionnement des boutons ‘suivant’, ‘passer’ et ‘annuler’ ; vue en forme de cartes, etc.

ResearchKit 2.0 inclut de nouvelles tâches et de nouvelles fonctionnalités qui permettent aux chercheurs de collecter des informations de nouvelles manières, pour plus de discernement.

Lecteur PDF. L’utilisateur peut lire, annoter, naviguer et partager des documents PDF.

Reconnaissance de la parole. Une tâche qui demande au participant de décrire une image ou de répéter un bloc de texte, qui transcrit la parole en texte, éditable si besoin.

Parler dans le bruit. Une tâche qui permet aux chercheurs d’évaluer les seuils d’écoutes des participants en leur faisant écouter des phrases incorporées dans du bruit ambiant, et en leur demandant de les répéter.

Audiométrie dbHL. une tâche qui détermine le seuil d’audition d’un utilisateur sur l’échelle db HL à l’aide de la méthode de Hughson Westlake.

Sonomètre environnemental. Permet de déterminer le niveau de bruit ambiant afin de fixer les seuils pour s’assurer que l’utilisateur est dans un environnement compatible avec les tâches à effectuer.

Grille d’Amsler. L’utilisateur est invité à porter le téléphone à une certaine distance du visage, de fermer et d’ouvrir alternativement les yeux, et de montrer sur une grille les endroits où ils voient, éventuellement, des distorsions.