GOOGLE está desarrollando un software que puede identificar los primeros signos de una enfermedad: todo lo que hay que hacer es toser en el micrófono del teléfono.
El gigante tecnológico no es ajeno al desarrollo de inteligencia artificial. En todo caso, Google está impulsando agresivamente la integración de IA en los servicios existentes, desde la videoconferencia hasta el correo electrónico.
Ahora la empresa está adoptando un enfoque diferente. En una publicación del blog del 19 de agosto, la directora de investigación de ingeniería de Google, Shravya Shetty, adelantó el último modelo de inteligencia artificial de la empresa.
“Desde la tos hasta el habla e incluso la respiración, los sonidos que produce nuestro cuerpo están llenos de información sobre nuestra salud”, se lee en la publicación.
“Como investigadores de GoogleReconocemos el potencial del sonido como un recurso útil. salud señal, y también que los micrófonos de los teléfonos inteligentes son ampliamente accesibles”.
La empresa ha estado examinando formas de extraer información de los datos acústicos.
En teoría, un usuario podría toser en su teléfono y recibir posibles diagnósticos, cortesía de la IA.
Ese es el objetivo de Salud Representaciones acústicas (HeAR), un modelo entrenado con 300 millones de clips de sonido.
El “modelo de tos”, en particular, fue entrenado con aproximadamente 100 millones de sonidos de tos.
HeAR aprende a identificar patrones dentro de los datos de audio, sentando las bases para análisis posteriores.
Google afirma que el modelo ocupa una posición más alta que sus competidores “en una amplia gama de tareas y para generalizar entre micrófonos”.
Como HeAR es solo un modelo base, Google espera que los investigadores lo perfeccionen para otros fines, como identificar una enfermedad específica.
Modelos Los modelos entrenados con HeAR ya muestran resultados prometedores: Google informa de un “alto rendimiento” a pesar de los escasos datos de entrenamiento.
El gigante tecnológico se ha asociado con Salcit Technologies, una empresa de atención médica india que desarrolló su propio modelo para analizar los sonidos de la tos.
Los investigadores están particularmente interesados en encontrar formas de identificar la tuberculosis, una infección bacteriana devastadora que puede permanecer latente durante años.
El sistema inmunológico captura los gérmenes en lo que se conoce como la etapa de infección primaria, pero algunos pueden sobrevivir y multiplicarse.
Si la enfermedad progresa a la fase activa, puede propagarse fuera de los pulmones y afectar el riñón, el hígado y el corazón.
La tuberculosis generalmente se presenta con síntomas parecidos al cáncer, como fatiga, dificultad para respirar y dolor en el pecho.
Si bien los médicos pueden detener la enfermedad mediante una intervención temprana, puede ser potencialmente mortal si no se trata.
La tuberculosis es poco común en el mundo occidental, pero prevalece en partes del sudeste asiático donde el acceso a la atención médica es limitado.
Google pretende que HeAR impulse el desarrollo de herramientas de diagnóstico y soluciones de monitorización para la tuberculosis y otras enfermedades del pecho y los pulmones.
Si todo va según lo previsto, la IA “ayudará a mejorar” salud resultados para comunidades de todo el mundo”, incluso en presencia de barreras de costos o datos de atención médica limitados.
Actualmente, el modelo está disponible para los investigadores que lo soliciten. No está claro cuándo se ampliará el acceso al público.
Si bien muchos internautas han expresado su apoyo a la herramienta (un usuario de Reddit afirmó: “Esto es lo que debería ser la IA”), otros se muestran cautelosos.
¿Qué es Google Gemini?
Quizás hayas oído hablar de la herramienta de inteligencia artificial Gemini de Google. ¿Qué es exactamente?
La IA Gemini de Google se lanzó en diciembre de 2023 y está disponible en líneaanunciado como una forma de “potenciar su creatividad y productividad”.
Gemini es un modelo multimodal que aprende de una variedad de tipos de datos, incluidas imágenes, texto y audio.
Cuando un usuario ingresa un mensaje en Gemini, este genera una respuesta utilizando información que ya conoce o que extrae de otras fuentes (generalmente, servicios de Google).
Mientras se entrena con conjuntos de datos, identifica patrones que lo ayudan a imitar una respuesta humana. Como está en constante aprendizaje, Gemini también aprende de sus indicaciones, respuestas y comentarios.
Google ha admitido que “Gemini cometerá errores y podría incluso decir algo ofensivo”.
El programa cita ocasionalmente sus fuentes. Si cita extensamente una página web, por ejemplo, hace referencia a esa página. A veces, genera una URL en la que los usuarios pueden hacer clic.
Gemini tiene límites de uso para reducir el tráfico, lo que significa que puede limitar la cantidad de indicaciones y conversaciones que un usuario puede tener dentro de un período de tiempo específico.
Este número depende de factores como la extensión y complejidad de las indicaciones del usuario y la duración de la conversación con Gemini. Google te avisará cuando estés cerca de alcanzar el límite para un período determinado.
Las preocupaciones sobre la privacidad de los datos siguen siendo un asunto urgente en la era de la inteligencia artificial, ya que modelos Borrar grandes cantidades de datos de los usuarios, generalmente sin permiso.
“Parece una excusa para más invasiones de privacidad”, dijo uno Reddit El usuario escribió.
“La pesadilla de la privacidad continúa”, se lamentó otro.
Incluso para aquellos que reconocen el potencial de la herramienta, su optimismo tiene límites.
“Este tipo de cosas son increíblemente asombrosas, pero es aterrador pensar que la industria más interesada serán los proveedores de seguros de salud”, escribió un usuario.