16 Nov 2016
El Contador Público y su actualización con Inteligencia Artificial (Parte 1)
Actualícese viene usando técnicas de Big Data y Analytics desde hace un buen tiempo
Cuando decidimos hace ya más de una década, convertirnos en una compañía de conocimiento, la tecnología y el desarrollo de algoritmos que nos permitieran comprender mejor nuestro entorno se integraron irreversiblemente a nuestra operación.
Iniciamos, como pocos en nuestra industria editorial, recopilando de todas las formas posibles los puntos de interacción de los Contadores Públicos con el conocimiento que necesitaban para hacer su trabajo. Nuestros primeros pinitos en el tema nos permitieron saber qué búsquedas se hacían en nuestro portal, para así presentar datos más útiles. Ahí descubrimos que no necesariamente cada Contador Público sabe lo que necesita, sino que nos buscaba para que le indicáramos qué necesitaba saber. Entendimos lo fundamental que era nuestro Boletín Diario de Actualización, que a partir de lo arrojado por los «robotcitos rastreadores» (como le llamábamos en ese tiempo) descubrimos, no solamente los temas más importantes, sino cuándo eran importantes.
Corroboramos que las necesidades del Contador Público se basaban en una estacionalidad determinada no solamente por la Dirección de Impuestos y decenas de entes gubernamentales que exigen información a la empresa, sino por las necesidades variables de las grandes empresas en términos de gestión corporativa. De ahí, el primer gran cambio hace una década: enviar un Boletín Diario distinto cada día, dependiendo de lo que nuestro usuario necesitaba y estaba en disposición de recibir dependiendo del calendario.
Así, al día de hoy no solamente moldeamos la información en bloques de requerimientos gubernamentales (por ejemplo, en febrero y marzo nuestros usuarios necesitan más información sobre Declaración de Renta de Personas Jurídicas; y muchos de ellos, para poder salir de vacaciones en verano, empiezan temprano las Declaraciones de Renta de las Personas Naturales que son exigibles hasta Agosto); también categorizamos los envíos de todas nuestras comunicaciones digitales basados en las preferencias de la mayoría de ellos: nuestros editores envían la información legal los lunes; la tributaria los martes; la de contabilidad y normas internacionales los miércoles; los jueves tratamos los temas financieros, de auditoría, revisoría y control; lo que es útil para contribuyentes primíparos los día viernes; y al final de la semana enviamos un sendo resumen para los lectores juiciosos de los domingos (que los hay, y muchísimos).
Una década después la evolución es notable.
Con la migración de nuestros sistemas de bases de datos a un esquema no estructural más entendible por parte de las máquinas que analizan datos, cada mañana hay unos algoritmos súper poderosos que estudian la interacción de nuestros usuarios del día anterior con todos nuestros puntos de contacto, incluyendo el portal, los eventos presenciales, las compras en la tienda, las llamadas a nuestra mesa de ayuda, las preguntas en las redes sociales y un largo etcétera.
Con la información que extractan, moldean la forma como cada quien recibe nuestra información.
En poco tiempo, los Contadores Públicos van a ver esa diferencia de una forma notable: toda la información que reciban de Actualícese será la que necesite saber individualmente.
Sabemos, por ejemplo, que un colega que asesore Pymes necesita una versión distinta de las Normas Internacionales de la Contabilidad para el tamaño de las empresas que asesora; igual, las Normas de Auditoría no son para todos, y una respuesta que puede ser válida técnicamente en el contexto de un Gran Contribuyente es inaplicable en el caso de una Entidad Sin Ánimo de Lucro.
Eso lo sabemos los Contadores, pero hasta hoy, las máquinas no.
En conjunto, todos (incluyendo a nuestros usuarios, investigadores, proveedores y toda la cadena de suministro de soluciones que lideramos) hemos trasladado colectivamente esa información a un sistema de inteligencia artificial primario que hemos entrenado y ya nos ayuda hace varios meses, con resultados sorprendentes, en un despliegue amplio pero cuidadoso por todos los puntos en que nuestros usuarios interactúan con Actualícese.
La mejor tecnología es la que no se ve.
No será raro que al llegar a un evento nuestro un sistema le indique al acomodador que nuestro asistente prefiere sentarse en el pasillo, o más cerca al conferencista porque es usual que haga preguntas. Incluso, si tiene problemas de visión, nos indique con anticipación que debemos acercarlo más, o si lleva siempre su portátil, tenerle cerca una toma de corriente. O tampoco será lejando el día en que la Revista mensual que reciben nuestros suscriptores tenga artículos preseleccionados por el editor debido al historial de intereses que el lector ha demostrado.
La clave aquí es la precisión y la sutileza en su manejo. El despliegue general de estos sistemas toma tiempo, pero nos tiene muy ilusionados el estar cada vez más cerca de entregarle a nuestros usuarios la información más útil y más relevante, para así hacerle mejor su vida.
En otro artículo explicaré en más detalle el reto que la implementación de estas tecnologías supone frente a las necesarias normas de privacidad que deben ser preservadas.
Hasta la próxima,
Juan Fernando Zuluaga C.
Director Ejecutivo
Actualícese
26 Oct 2017
Corto ensayo sobre las correlaciones, Monet y Big Data
La forma como percibimos el mundo ha cambiado, y también cómo lo medimos. Para planear, primero medíamos un pedazo de la información que podíamos recolectar y analizábamos. Ahora debemos desaprender todo eso.
Esclavos de la causalidad («cuando X tiende a Y, debo hacer Z»), buscábamos precisión en las muestras de los datos para inferir el futuro, extrapolando sábanas de información que después doblábamos para quitarles las arrugas sin importar cuánto tiempo tomara, y así entregar una manta del tamaño de una servilleta planchada y templada; felices, la usábamos para predecir y proyectar. Y como no teníamos datos, extraíamos muestras, encuestábamos y derivábamos. Si algo salía mal, la causalidad nos mostraba que el error estaba en la muestra; si salía bien, el éxito era la proyección.
Siervos del miedo al error, invertimos millones en mejorar los datos y mejorar los artefactos encuestadores, sin ver que la proyección misma era la que estaba sujeta al error, por una razón tan grande como el mismo concepto de causalidad: por querer ver el detalle, nos volvimos ciegos al entorno. Fue una elección consciente en donde resignamos panorama por precisión. Éramos miopes a propósito, sin poder ver el bosque por estar tan cerca de los árboles.
Pero el análisis de las causas tiene alternativa: se puede reemplazar por el análisis de las correlaciones. Si X cambia, ¿qué tan probable es que Y también lo haga?
Esto no implica solo un cambio en la forma de hacernos las preguntas, sino en la forma como queremos llegar a los resultados. El objetivo deja de ser obtener soluciones más precisas: ahora queremos tener más soluciones.
Los datos masivos, el Big Data, suponen un cambio fundamental en la forma de abordar los problemas. Con ese enfoque damos por supuesto el exceso de información, sabiendo que tendremos más de la que podríamos procesar para encontrar causalidad. Con muchos datos, podemos entrecerrar los ojos, alejarnos un poco del cuadro, y con el desenfoque ocular comenzar a notar patrones manifiestos que antes eran invisibles por nuestra cercanía al problema.
Es como un cuadro impresionista, que visto de cerca solo revela brochazos bruscos y rápidos, pero cuya belleza se devela con la distancia, con el desenfoque. Ni a Van Gogh ni a Monet le preocupaba la precisión del trazo más que la sensación que produjera el motivo pintado; lo importante era la impresión que causara en el espectador (de ahí el nombre del movimiento). Esa impresión del momento es la que puede capturar el ojo entrenado con los datos masivos: desde una prudente distancia ver cómo se forman patrones, cómo las pistas falsas revelan sus sinsalidas y cómo las tendencias se resaltan para generar no una, sino muchas proyecciones.
Dejar de pensar desde la causalidad y enfocarse (o más bien desenfocarse) en las correlaciones viene con un costo: la tolerancia al error y a la inevitabilidad de la imprecisión modal. La estadística y el juego de censos solo servirá para las raras ocasiones en donde no haya datos, y seguro generará frustraciones cuando veamos que si pensamos en términos de «cuando cambia X, hay este porcentaje de probabilidad de que cambie Y» habrá muchos más resultados posibles satisfactorios pero incluso más banderas rojas. Nuestro cerebro adopta con gracia el análisis de las correlaciones porque con él juega todo el día… es la causalidad la que nos hacía doler la cabeza. Ya no es necesario, ya los datos están aquí.
Borges contaba en «Del Rigor en la Ciencia» sobre un imperio en donde habían perfeccionado a tal nivel el arte de la cartografía que habían logrado hacer un mapa detallado, tanto que el tamaño del mapa terminó siendo el del mismo imperio. Con la masiva cantidad de datos del comportamiento humano que estamos coleccionando (y que están recogiendo por nosotros) nuestro mapa del mundo será más grande que el mismo mundo, por lo que la tolerancia a no ver el detalle será compensada por un paisaje impresionante.
Lo que vamos a atestiguar con este cambio de pensamiento será asombroso. Cualquiera lo podrá ver con los ojos entrecerrados.
Notas: