Diseño del blog

El papel de la Inteligencia Artificial, el Big Data y el Machine Learning en el Método Científico Clásico

Dubio • 6 de octubre de 2019
El método científico es lo que comparten todos los avances científicos y tecnológicos de la historia. Fue formalizado por René Descartes en el siglo XVII y siempre ha respondido a un esquema bien organizado, donde se iban alojando diferentes tecnologías o algoritmos matemáticos que hacían más ágil y fiable el proceso y que permitían también empujar la frontera del conocimiento de manera rigurosa.

El método científico sistematiza los pasos que debe seguir cualquier razonamiento que pretenda extraer conclusiones desde observaciones, a priori, novedosas. Se puede dividir en los siguientes pasos:

a) Observación: en primer lugar, hay que familiarizarse con el problema e identificar sus particularidades.
b) Hipótesis: tras identificar el problema mediante la observación, se asumen diferentes criterios, que generalmente son modelos de diferentes tipos.
c) Experimentación: se extraen datos que validen las hipótesis y ayuden a particularizar el caso.
d) Teoría: una vez validadas las hipótesis, se puede generar una teoría que describa el fenómeno. 
e) Conclusiones: particularizándolo para cada caso, sin necesidad de obtener una teoría o una ley científica

Esto no sólo se sigue para, por ejemplo, la teoría de la relatividad o la ley de la gravedad, sino que también se sigue para cualquier cálculo de carácter más tecnológico. Y así sucede para los cálculos ingenieriles, donde se debe observar el problema, establecer ciertas hipótesis de cálculo, validarlo y posteriormente sacar conclusiones.

La ingeniería civil es muy artesanal, cada punto de cada infraestructura es diferente a cualquier otro, y los prefabricados estándares industriales aún son muy incipientes. Aun así, la sensibilidad de las infraestructuras al clima de cada sitio, a su uso y al mantenimiento que se les realiza, hace cada caso aún más particular. Es por esto que el método científico, esta cadena de pasos a seguir, es tan importante en la ingeniería civil.

El problema llega con la universalidad que debe de tener la monitorización. Ésta debe de ser lo más estandarizada posible para ser implantada a gran escala y hay que huir de las particularizaciones salvo para casos muy singulares. La información sobre la integridad de la infraestructura es clave para diseñar estrategias de mantenimiento predictivo, evitar colapsos y aumentar el confort de los usuarios. 

Y este es el contexto: hay que diseñar una metodología de monitorización estándar, que se pueda implantar a gran escala y que se adapte de manera automática a los diferentes elementos de una infraestructura. Al minimizar la intervención humana en este proceso, resulta muy complejo seguir el método científico; se elimina la parte artesanal, pero sin embargo es necesario seguirlo para asegurar la rigurosidad.

En Dubio, usamos para definir estrategias globales de monitorización dos aproximaciones; el Data Driven y el Model Based. En una primera capa se usa el Data Driven, y en el caso de infraestructuras singulares, la información que se extrae se usa en otra capa que es Model Based

Como ejemplo, y saliendo del ámbito de la ingeniería civil, nos podemos imaginar el caso concreto de una persona que se ha hecho daño en la rodilla. Por un lado, podemos radiografiar las rodillas, diagnosticar el nivel de daño que existe e introducirlo en un modelo del cuerpo para determinar si esa persona va a cojear o no. Esta metodología es Model Based, tiene intervención humana a diferentes niveles, pero este esquema sirve para evaluar tantos casos como sean diagnosticados de manera autónoma. Por otro lado, el Data Driven prescinde de modelos e hipótesis, los extrae del análisis y tratamiento de los datos. En este caso un software observará a la persona cojear y se inferirá que se debe a un daño en la rodilla.
En Dubio usamos las dos aproximaciones, y cuidamos que la adquisición de datos sea asequible y muy simple, mediante teléfonos móviles comerciales, con el objetivo de facilitar la escalabilidad.

Con el Data Driven obtenemos de los propios datos que medimos toda la información que se necesita para definir las hipótesis y determinar las conclusiones de manera autónoma. Es decir, se toman los datos, que generalmente vienen de fotografías y otros sensores, y sin ninguna particularización ni información de la infraestructura, el software es capaz de determinar el daño que existe y evaluar su gravedad. Obviamente no se prescinde de los puntos del método científico sobre las hipótesis y la observación, sino que estos se infieren de los datos medidos. Y es aquí donde entra el Big Data que, define, clasifica y cruza los datos. A su vez, el Machine Learning y la Inteligencia Artificial, mediante los datos, son capaces de inferir hipótesis de comportamiento, y determinar conclusiones. No es trivial, y ciertamente tiene mucha algoritmia detrás, pero con esta metodología podemos aplicar de manera rigurosa un sistema de monitorización estándar y escalable

En el Model Based, los datos se introducen de manera automática y recurrente en un modelo predefinido de la infraestructura, bien sea de elementos finitos, de optimización de activos o de análisis de riesgos y mantenimiento predictivo. Sólo es necesario definirlo una vez para cada caso, pero de manera muy estandarizada y válido para todas las mediciones. 

Con todo esto, y a pesar de sus cuatro siglos de antigüedad, podemos afirmar que, como todo lo bueno, el método científico clásico sigue vigente, sólo se está alterando el orden de sus pasos.
Revolución de la Movilidad en el siglo XIX
Por Dubio 1 de octubre de 2019
Cómo las crisis insalvables de pronto ya no son crisis.
Es un nuevo amanecer,   un nuevo día
Por Dubio 24 de septiembre de 2019
Nace Dubio: un grupo de Rock entre Orquestas Sinfónicas
Share by: