Dades Obertes i Consum

Big Data: què és?

Els denominats conjunts de Big Data tendeixen a buscar, descarregar, recopilar i processar les dades disponibles. És un mètode per a recopilar legalment informació d'una varietat de fonts, per a després analitzar-la i usar-la per als seus propis fins. Com a resultat, es crea un perfil de consumidor, que després s'utilitza per a, per exemple, augmentar les vendes.

Per tant, el més important en Big Data, és el tractament de la informació i l'aplicació pràctica dels resultats extrets d'ella, i no conformar-se només amb la recollida de dades. Així per exemple, els bancs recopilen dades que resulten dels moviments en els comptes dels usuaris, per exemple, pagaments realitzats, la seua grandària i tipus d'articles comprats. També moltes empreses llancen les seues pròpies aplicacions que els usuaris descarreguen en telèfons intel·ligents o tauletes. En instal·lar el producte en un dispositiu, la majoria de les vegades dones el consentiment perquè l'aplicació accedisca a les pròpies dades.

Canals de xarxes socials i Big Data

Una font de dades interessant també són les xarxes socials. La informació que s'obté d'aquestes xarxes és molt difícil d'analitzar, ja que no contenen valors numèrics que puguen comparar-se fàcilment entre si. No obstant això, es poden analitzar en termes de la presència i el contingut de les publicacions dels usuaris i el seu temps de resposta a les ja publicades per altres persones.


Segregació de dades: mètodes i eines

La quantitat de dades recopilades és enorme i augmenta amb cada nova acció realitzada pels usuaris. Alguns d'ells poden resultar menys valuosos que uns altres. Per tant, la següent etapa del treball dels analistes, és segregar adequadament la informació per a poder utilitzar-la íntegrament. La forma més eficaç de fer-ho, és seleccionar les més importants i utilitzar eines analítiques conegudes i disponibles. Atés que les consultes han d'executar-se ràpidament, totes les anàlisis es realitzen en paral·lel.

L'algorisme més important utilitzat per a aquest propòsit és MapReduce. L'ús d'aquesta eina permet dispersar els conjunts de dades ingressades ​​entre molts servidors, els quals són organitzats i posteriorment se seleccionen els elements o registres apropiats d'acord amb les regles de consulta. El resultat final és simplement comptar amb menys dades, perquè prèviament van ser agrupats i sotmesos al necessari procés de reducció. També hi ha altres eines que els analistes poden utilitzar amb èxit, segons els seus requeriments. L'elecció del mètode més adequat, dependrà de les preferències de l'usuari i dels resultats esperats.


Entre les moltes eines de mesurament disponibles en el mercat, les més populars per a Big Data són:

  • Apatxe Hadoop.

  • Elasticsearch.

  • Apatxe Storm.

  • MongoDB.

  • Apatxe Spark.

  • Python.

  • Apatxe Cassandra.

  • Llenguatge R.

Val la pena usar Big Data i quan?

Big Data té un gran potencial per a generar comportaments del consumidor. Basant-se en les dades recopilades, es pot crear i definir amb precisió el perfil de les seues necessitats i proporcionar-los solucions ideals (des del punt de vista del venedor).

Aquestes activitats a llarg termini, tenen l'oportunitat de contribuir al sorgiment d'un avantatge competitiu en el mercat, tot en benefici de l'empresa que ha decidit utilitzar eines de Big Data.

Per tant, el Big Data es pot utilitzar de manera beneficiosa tant per al consumidor com per a l'empresa.

LES DADES SÓN EL COMBUSTIBLE DE LES CAMPANYES DE PUBLICITAT

Què són les dades de consum?

En un sentit general, són la informació que ajuda a un proveïdor de serveis, comerciant o comercialitzadora, entendre millor les necessitats i preferències de persones i grups en relació al seu ús i consum. Aquestes dades ajuden a les agències de dades crear perfils detallats sobre uns certs grups que després són venuts o oferits a empreses que volen dirigir-se al seu públic consumidor—o en un context polític, potencials votants—segons les seues preferències o atributs percebuts.

En el seu ‘Audience Lookbook’ (‘Directori d'Audiències’), l'agència de dades Experian afirma que la seua base de dades sobre els Estats Units té accés a la 'informació més actualitzada' de 'més de 300 milions de persones i 126 milions de llars, més de 50 anys d'informació històrica, milers de dades que revelen informació sobre demografia, hàbits de consum, estils de vida, interessos i actituds'.

A través de l'ús d'aquestes dades, Experian es vanagloria de poder 'dirigir-se al 85% dels Estats Units, vincular a 500 milions de comptes de correu electrònic' i classificar (segmentar) a les persones en 71 tipus segons la seua 'Personalitat Financera' i 'Perspectiva Ètica'. Experian diu que aquestes dades ajudaran a les empreses dirigir-se al 'públic adequat' amb 'el millor missatge'. Però l'empresa no sols està oferint dades a empreses: la seua segmentació de 'Persones Polítiques' defineix categories com 'Super Demòcrates' i 'Tradicionalistes del Partit Verd' que brinda informació i coneixement als partits polítics sobre assumptes, actituds i tendències entre votants. Les dades de consum no sols són proclamats com la clau a comprendre a persones usuàries o consumidores sinó essencials a l'hora d'accedir i interactuar amb ‘audiències polítiques valuoses’.

Les dades creixen constantment.

La vasta quantitat de dades de consum disponible hui dia creix exponencialment. Segons un informe de Demos sobre el futur de campanyes polítiques, IBM estima que es produeixen 2.5 trilions de bytes de dades cada dia per quasi qualsevol sector de l'economia. Els tipus de dades que es recopilen varien des de característiques bàsiques com a edat o quants són en la família, fins a detalls minuciosos sobre els tipus de pel·lícules que ens agraden o el tipus de cotxe que manegem. De fet, General Motors va patentar l'ús de 'dades de rastreig de vehicle' (en anglés ‘vehicle trace data’) que consisteix a dirigir publicitat al teu vehicle segons informació com la forma que condueixes o la música que escoltes en el cotxe. Aprofundint en aquest tema, Wolfie Christl, especialista en tecnologia i investigació, descriu en el seu informe ‘Corporate Surveillance in Everyday Life’ (Vigilància Corporativa en el Dia a Dia) diferents categories de dades de consum (dades voluntàries, dades observables, dades reals, dades inferides) basant-se en l'anàlisi d'activitats i conductes. Un ampli rang d'indústries són caldos de cultiu d'aquestes dades, incloent plataformes digitals com Google, Facebook i Amazon, proveïdors de telecomunicació, mitjans de comunicació, editorials, detallistes i distribuïdores, serveis financers com a bancs i agències de crèdit. Spotify, per exemple, no sols ven dades sobre preferències musicals sinó informació sobre estats d'ànim i ubicació. En l'era digital, les empreses que es basen en dades com els proveïdors de serveis d'internet i 'dispositius intel·ligents' també s'han convertit en agències de dades.


Com usen les meues dades de consum en les eleccions?

Les dades de consum són el combustible de les campanyes digitals. Impulsen els diferents mètodes i eines que les campanyes polítiques utilitzen per a analitzar, classificar, avaluar i interactuar amb votants. A tot el món, les campanyes polítiques estan usant cada vegada més dades i eines, originalment dissenyades per a publicitat i comerç, amb la finalitat de comunicar i donar forma a les seues campanyes.


Les fonts principals de dades de consum utilitzats en campanyes polítiques són:


Agències de dades tradicionals

Les campanyes polítiques poden comprar dades de consum directament a les agències de dades principals com Acxiom, Epsilon i Experian (incloent l'empresa brasilera Serasa Experian, propietària de les bases de dades més grans de la regió Llatinoamericana). Després de les eleccions del Regne Unit en 2017, el lloc web 'Emma's Diary' (El Diari d'Emma) que 'donava consells sobre maternitat i embaràs a futures mamàs' va rebre una multa de l'Oficina de Comissionat d'Informació (ICO) per infringir les lleis de protecció de dades. El lloc, a través d'un acord de subministrament de dades amb Experian, venia dades de les seues consumidores al Partit Laborista. Noms, direccions, nombre d'integrants per habitatge, dates de naixement... El lloc web recol·lectava i venia més d'un milió de registres a Experian que, amb aquesta informació, va dissenyar una base de dades perquè el Partit Laborista poguera dirigir la seua campanya a potencials votants.

Plataformes d'internet

Encara que les agències de dades tradicionals són una font abundant de dades de consum per als partits polítics, les principals plataformes en internet estan guanyant terreny. Empreses com Facebook i Google i els seus ecosistemes de productes (com Gmail, Youtube, Instagram i Facebook Messenger) brinden informació sobre hàbits d'interacció i de consum perquè la publicitat i el comerç aconseguisca audiències.

Aquestes dues empreses no sols operen bases de dades enormes, sinó que dominen el paisatge de publicitat digital. Els seus models de negocis depenen, en gran manera, a oferir serveis de publicitat dirigida. La supremacia de Google i Facebook es reforça: les agències de dades poden combinar les seues dades amb aquestes plataformes. Ajuntant el poder d'abast i la riquesa de les dades de consum, aquestes plataformes d'internet alimenten a les campanyes polítiques a tot el món amb serveis personalitzats.

Presentem dues tècniques potents oferides per aquestes plataformes. D'una banda, les bases de dades de clients que associen recursos (què hi ha) amb necessitats (què volen). Facebook ho crida ‘custom audiences’ (audencias personalitzades ’) i Google, ‘customer match’ ('match' de client).

D'altra banda, les ‘cerques avançades’. El servei de Facebook es publicita com ‘Lookalike Audiences’ (audiències semblants) i Google l'ofereix sota el nom de ‘Similar Audiences’ (audiències semblants). Aquest servei permet a anunciants i campanyes polítiques pujar llistes de persones clients i seguidores directament a la plataforma i identificar a usuaris d'aquestes plataformes segons dades com a noms, números de telèfon i comptes de correu amb la fi és dirigir continguts específics. Totes dues plataformes ofereixen un sistema on s'analitzen les activitats i característiques dels usuaris buscant interessos i trets comuns per a poder dirigir publicitat i realitzar difusió.

Consultoria en dades polítiques

Mentre que la clientela de les agències de dades tradicionals i les plataformes d'internet provenen de molts tipus d'indústria, les empreses de consultoria política ofereixen la seua intel·ligència entorn a dades de consum especialment per a clients relacionats amb la política i les campanyes.

Altres fonts

Més enllà de les dades comercials típiques, la consultoria política s'està fixant en fonts noves que puguen ajudar a ampliar la seua comprensió sobre votants. L'aprovisionament i anàlisi de dades obertes s'està convertint en un recurs per a campanyes polítiques. Un equip d'investigació sobre intel·ligència artificial de la Universitat de Standord va demostrar que és possible, per exemple, predir estadístiques demogràfiques i patrons de votants als Estats Units només basant-se en les imatges de cotxes de Google Street View. Les seues troballes assenyalen que si en un barri o colònia hi ha més cotxes de turisme (un 'sedan'/'berlina') que camionetes és més probable que hi haja una inclinació política cap al Partit Demòcrata. També s'implementen dades satel·litàries en el camp de la consultoria política. HaystaqDNA, una empresa de dades que va treballar en les campanyes polítiques de Barack Obama i Bernie Sanders, va analitzar imatges satel·litàries per a identificar i tipificar a persones que tenien panells solars—dada valuosa per a dirigir-se a potencials votants amb sensibilitat cap a temes mediambientals.

Com ens podem defendre els consumidors davant els extractors de dades?

WeRule és el primer broker digital de dades disponible en les plataformes iOS i Android que ajuda a controlar qui accedeix a les dades de l'usuari i per a què. També intermèdia entre consumidors i empreses que desitgen connectar amb ells de manera transparent.

La societat està començant a prendre consciència del risc que suposa compartir tanta informació privada però fins ara tampoc comptaven amb eines per a fer front a aquesta problemàtica.

WeRule és un Data Broker dirigit a defensar els drets de l'usuari. Les dades són també una eina amb un enorme potencial per a millorar el nostre impacte en el mercat, conéixer a la nostra audiència, reduir riscos i millorar la presa de decisions.

WeRule és un gestor d'informació que permet a l'usuari triar amb qui comparteix les seues dades i que els beneficis generats per aquesta informació revertisquen en ell. La idea sorgeix en observar el desprotegit que ha quedat l'usuari davant el nou negoci que s'ha instaurat al voltant del control de la informació. Werule és una eina per a poder assegurar que la informació que recopilen les empreses és cedida voluntàriament per l'usuari.

Així, el valor de l'ús de les dades el determina l'empresa final interessada en ells. Del comportament en línia d'un únic usuari es poden traure moltes conclusions de gran valor per a les marques, però dels patrons d'ús individuals de milers d'usuaris les anàlisis i conclusions seran molt més rellevants. Des de WeRule apostem perquè el valor generat per les dades personals ha d'estar dirigit a l'usuari i la fórmula més eficaç que hem trobat és que les empreses oferisquen els seus serveis a canvi d'utilitzar la informació cedida pel consumidor.

Existeix una gran quantitat de formats publicitaris, però el rellevant és que en els últims anys hem presenciat una “especialització” dels espais publicitaris gràcies a les xarxes socials i les eines de Big Data i Intel·ligència Artificial, ja que cada vegada es té més informació sobre el públic al qual vol dirigir-se la publicitat. WeRule es presenta com un mitjà de comunicació entre empreses anunciants i seguidors d'aqueixa marca, aquesta connexió facilita a les empreses l'acostar-se amb certesa al grup de consumidors que realment estan interessats en ella i volen rebre la seua publicitat.

Blockchain facilita la descentralització de la identitat i el control sobre les pròpies dades, si bé ara mateix hi ha un problema de compatibilitat amb el marc legal de la protecció de dades (no podent garantir els drets més bàsics en l'ús del blockchain públic).

La gestió individual de les dades personals dona a l'usuari principalment dos beneficis, la capacitat de poder decidir que empreses són les que tenen i usen les seues dades i la possibilitat d'obtindre una recompensa a canvi de cedir la seua informació personal.

Com funcionen els algorismes de contingut dels mitjans socials?

Agost 2021

Instagram, TikTok, Twitter, Facebook i YouTube són algunes de les xarxes socials més usades en l'actualitat, però, quins criteris segueixen per a mostrar-te unes certes publicacions?

Cada vegada són més les persones que es pregunten com les xarxes socials coneixen els nostres gustos i ens anuncien productes referents a això o per què ensenyen uns continguts específics enfront d'uns altres. La resposta a totes aqueixes incògnites es troba en els algorismes de les xarxes socials. Aquests algorismes són un conjunt de normes de programació que contenen les aplicacions que determinen que una publicació es mostre molt o que no li l'ensenye a quasi ningú. Així mateix, a través d'ells, una xarxa decideix a qui i quan oferir aquesta publicació als usuaris. Per fer una comparació, els algorismes de les xarxes socials són com aquells que decideixen que temes van en portada en un periòdic i quins tindran únicament un breu espai. D'aquesta manera, es tria quins posts es mostren més i quins menys en funció a la resposta que es rep del públic.

Si l'usuari vol que la seua publicació siga molt vista, és important que tinga en compte la influència dels algorismes en la seua estratègia en xarxes socials. No obstant això, tampoc ha de deixar de costat la qualitat del seu contingut.

Com són els algorismes dels mitjans socials?

Instagram

L'inici d'Instagram mostra preferentment a persones amb les quals més s'interactua. En aquest apartat, els usuaris solen veu els continguts que afigen a la xarxa social les persones que segueix. No obstant això, hi ha excepcions: els anuncis publicitaris.

Amb l'objectiu de mostrar el que la gent vol veure, Instagram afirma que es fixa en nombrosos “senyals”. Entre elles estan les següents:

  • La informació sobre la publicació: des d'on s'ha publicat i quan, quants ‘m'agrada’ està rebent, etc.

  • La informació sobre qui ho va publicar: quantes vegades la gent ha interactuat amb aqueixa persona, quants seguidors té, etc.

  • L'activitat de l'usuari: així Instagram coneix si la publicació en si podria o no interessar-li.

  • La interacció entre la persona que publica i qui rep aquest contingut: a través de comentaris en altres publicacions, de ‘m'agrada’, de si es fica en el seu perfil o de xats per privat.

A bandade la versió oficial d'Instagram, una organització alemanya anomenada AlgorithmWatch parlava de la possibilitat que l'algorisme d'aquesta xarxa social oferira preferentment contingut de xiques en roba interior o bikini i a xics amb el tors nu. Segons la seua publicació, això es feia fins i tot si no s'havia interactuat anteriorment amb aqueixos usuaris.

TikTok

TikTok es basa en les dades bàsiques i en les accions de l'usuari. Aquesta plataforma va disparar encara més el seu ús en 2020 i, des de llavors, es tracta d'una de les xarxes socials més famoses en el món. En una entrada en el seu blog, va explicar com funcionava el seu apartat de recomanacions ‘Per a tu’.

Segons conta TikTok, l'algorisme es basa en les dades bàsiques de l'usuari per a mostrar-li contingut personalitzat. A més, també utilitza una altra informació, com els ‘m'agrada’, els usuaris amb els quals més s'interactua, els temes que se solen compartir, els que es busquen, encara que no es compartisquen, etc.

D'altra banda, TikTok també parla de dades “secundàries”. Ací estan les etiquetes que l'usuari usa, la música o àudios que empra, si es queda fins al final d'un vídeo o si llisca cap avall abans... Amb totes aquestes accions, TikTok crea un perfil de cada usuari i l'utilitza per a mostrar un cert contingut o publicitat.

Una investigació de The Wall Street Journal es va descobrir que aquesta aplicació és capaç de crear perfils de la gent amb moltíssima més rapidesa que altres plataformes. Per a això, van crear un centenar de comptes automatitzats que consumien contingut tota l'estona.

Malgrat el que la xarxa social diga, TikTok ha sigut protagonista de multitud de polèmiques. Segons The Intercept, l'aplicació va demanar als seus moderadors que limitaren la visibilitat de persones “lletges” o “pobres”. A més, Netzpolitik va assegurar que amagaven vídeos de persones amb discapacitat.

Twitter

En Twitter es poden veure els temes i interessos que consideren que són del grat de l'usuari. Aquesta xarxa social no ofereix moltes explicacions sobre com funciona el seu algorisme. Segons Twitter, els tuits que apareixen en l'inici es deuen a interaccions passades o a interessos de l'usuari.

No obstant això, la plataforma ofereix la possibilitat que l'usuari trie l'opció de ‘Mostrar tuits destacats primer’. D'aquesta manera, mostra les publicacions de comptes amb les quals s'interactua més habitualment, ja siga donant ‘m'agrada’, retuitant o comentant.

Per a conéixer quines categories considera Twitter que interessa a un cert usuari. Únicament s'ha de seguir una sèrie de passos: ‘Configuració i privacitat’ > ‘Privacitat i seguretat’ > ‘Contingut que veus’. Allí, ofereixen dos apartats: ‘Temes’ i ‘Interessos’

Facebook

Aquesta xarxa social és una de les més antigues que encara sobreviuen hui dia. El seu origen es remunta a 2004 i, des de llavors, no ha rebut moltes crítiques sobre el funcionament dels seus algorismes de recomanacions. Facebook facilita en cada publicació que mostra als usuaris la possibilitat d'explicar el per què s'està veient això. Entre els motius es troben la interacció amb aqueixes persones, pàgines o grups; la interacció amb un contingut específic similar; o per la seua popularitat en la xarxa.

Respecte als anuncis, Facebook també ofereix la funció de conéixer per què mostren determinat anunci. Generalment, es deu a si l'usuari ha fet clic abans en una publicació de l'anunciant.

YouTube

Els algorismes d'aquesta plataforma són uns dels que més incògnites plantegen. Una de les raons per les quals genera tanta intriga és que, segons alguns estudis, si un usuari veu els vídeos que YouTube ofereix en la seua reproducció automatitzada, finalment acaba en contingut amb desinformació o amb imatges violentes.

Malgrat la polèmica que això puga suscitar, YouTube assegura que analitza els “senyals” sobre l'activitat de l'usuari. Entre les dades recopilades, es troben els vídeos que visualitzem, si ho veiem sencer o ho tallem a meitat, les cerques que realitzem, etc.

Com estan utilitzant el Big Data les empreses per a impulsar les vendes?

Actualment estem generant informació constantment. Cada 48 hores generem tantes dades en internet com els que ha generat la humanitat des de l'inici de la civilització fins a l'any 2003, cinc exabytes de dades. I la tendència és que aquesta creació de dades continue creixent exponencialment a causa dels avanços tecnològics.

Una característica important del Big Data són els diferents orígens i la gran varietat de tipus de dades que es generen, una classificació d'aquests podria ser:


  • Les xarxes socials: tots nosaltres generem dades.

  • Instruments científics: col·leccionen tot tipus de dades.

  • Dispositius mòbils: rastregen objectes tot el temps.

  • Tecnologia de sensors i xarxes: mesuren tota classe de dades.

Probablement aquesta classificació pot ampliar-se en un futur degut als progressos tecnològics i innovació.


Els grans reptes als quals s'enfronten les empreses hui dia.

  • Com i què processar. És important saber des d'un primer moment quina és la informació que es vol i amb quines eines de totes les que ofereix Big Data es treballarà (Hadoop, Spark, etc).

  • On emmagatzemar-ho. La tecnologia del cloud computing facilita a les empreses el tindre una infraestructura i uns recursos per a poder emmagatzemar aquesta informació/dades d'una manera segura i il·limitada enfront de l'emmagatzematge tradicional de les bases de dades, així com una accessibilitat des de qualsevol dispositiu.

  • Com analitzar la informació. De les dades que considerem importants i tinguem processaments, procurarem extraure el valor o coneixement en el qual es basaran noves preses de decisions i fins i tot permetre a les empreses anticipar-se a futurs escenaris per a impulsar i augmentar les seues vendes. Depenent del negoci o de l'objectiu que es vulga aconseguir serà adequada usar una o altra estratègia, com s'ha comentat anteriorment és molt important tindre clar des d'un primer moment el coneixement que vull extraure de tota la informació que podem manejar.


Les principals tendències Big Data que estan aplicant les empreses per a augmentar les seues vendes.

Impulsar les vendes

Gràcies al Big Data es pot fer un seguiment dels patrons de consum, és a dir, un seguiment de les compres i les preferències actuals dels clients. Amb el que l'empresa podrà detectar les seues fortaleses i febleses, així com poder prendre decisions en conseqüència per a generar majors guanys. Relacionat amb aquest punt, en poder realitzar un seguiment de les compres que realitzen els clients es pot fer una millor estimació del que és necessari produir, ajustant així la producció i fins i tot predir les matèries primeres que es necessitaran. Obtenint un avantatge extra d'un major control de despesa en el procés productiu de l'empresa.

Ajudar en la segmentació de clients

La utilització del Big Data ens dona la possibilitat de tindre una evolució més precisa i actualitzada de les preferències i gustos de cada client facilitant a l'empresa enfocar l'estratègia de venda més adequada per al client en tot moment.

Major coneixement dels consumidors

Tindre accés a gran quantitat de dades que generen els consumidors permet tindre un major coneixement d'ells i per tant l'empresa disposa d'uns certs punts clau que li permetran acostara a la persona adequada i en el millor moment. Això permetrà millorar l'eficiència en el procés de venda, ja que l'empresa se centrarà i arribar als segments de mercat que més rendibles puguen resultar oferint un producte o servei que s'acoste el màxim possible al que aqueix consumidor està demandant.

Estratègia amb enfocament personalitzat

Es pretén incrementar la fidelització del client, creant estratègies de comunicació adaptada a cadascun dels clients, basant-se en els seus gustos, preferències i tot tipus de dada que puga oferir una informació valuosa del client.

Dissenys òptims

Conéixer per endavant el que necessiten o interessa als clients es tradueix en què des d'un principi s'estiga treballant en un disseny concorde als gustos del client. Pel que gràcies a l'anàlisi del Big Data estalviarem temps i despeses en els dissenys. Això beneficiarà a l'empresa tenint una millor productivitat i més eficient.

Seguiment de tendències del mercat

Utilitzant el Big Data es pot realitzar un seguiment sobre les opinions (positives o negatives) que els clients o persones tenen sobre un producte o servei que està ja oferint una empresa. Sobre la base del resultat es poden prendre millors decisions respecte al producte.

També és útil analitzar les dades del mercat si una empresa vol llançar un nou producte. D'aquesta manera es podrà observar si hi ha mancances d'algun producte, què és el més demandat o cap a on es mou el mercat.

Control de la despesa de màrqueting

Analitzant el mercat en el qual es mou l'empresa, els potencials competidors i els clients, es pot analitzar si és rendible o no llançar una estratègia de màrqueting o si potser és necessari un ajust d'aquesta perquè siga més eficient. Aquest punt permetrà a l'empresa que s'ajuste el màxim possible al pressupost i controle les despeses.

Prendre decisions en temps real més encertades

Utilitzant el Big Data i tecnologies cloud es pot arribar a analitzar el comportament de la venda d'un producte a temps real i, sobre la base dels resultats que s'estan obtenint, prendre les decisions més adequades per a millorar les vendes.

Optimització SEO

Amb Big Data es pot ajudar a millorar la presència de la web de l'empresa en internet. Amb l'optimització SEO s'aconsegueix que siga més útil la pàgina web tant per als usuaris com per als motors de cerca. Aquesta major utilitat implica un control en el trànsit i en el temps d'estada en la pàgina traduint-se en majors ingressos per a l'empresa.

Detectar i evitar pèrdues de clients

Es poden analitzar patrons de comportament dels clients per a detectar què és el que provoca que s'abandone una compra en línia (a causa de les despeses d'enviament, el procés de compra en si, mètodes de pagament o mala estratègia de comunicació) o que s'acabe realitzant. Sobre la base d'aqueixa anàlisi es poden realitzar diferents estratègies o eines per a assegurar que finalment el client tanque la venda en línia.

Usar al tractament de dades per a defendre els drets dels consumidors.

“Coneix al teu enemic i a tu mateix i en cent batalles mai seràs derrotat; Si eres ignorant del teu enemic però et coneixes a tu mateix, les probabilitats de guanyar o perdre seran les mateixes; si eres ignorant del teu enemic i de tu mateix, eixiràs derrotat sempre”


QUÈ ÉS OSINT?

OSINT (Open Source INTelligence), traduït com a Intel·ligència de Fonts Obertes, fa referència al conjunt de tècniques i eines per a recopilar informació pública, analitzar les dades i correlacionar-los convertint-los en coneixement útil. En altres paraules, podríem dir que apliquem OSINT per a aconseguir tota la informació disponible en qualsevol font pública sobre una empresa, persona física o qualsevol altra cosa sobre la qual volem fer una investigació, i fent que tot el cúmul de dades es convertisca en intel·ligència que ens servisca per a ser més eficaces a l'hora d'obtindre un resultat.

OSINT s'utilitza en multitud d'àmbits: financer, tecnològic, policial, màrqueting,…etc. Si ens centrem en l'àmbit tecnològic, i més en concret en la ciberseguretat, trobarem que OSINT té diverses aplicacions:

  • S'utilitza en l'etapa de reconeixement d'un pentesting: Descobrir hosts en una organització, informació de Whois, trobar subdominis, informació de DNS,trobar fitxers de configuració, passwords, etc…

  • S'utilitza per a tests d'enginyeria social: Buscar tota la informació sobre un usuari (en xarxes socials, documents, etc) i ser conscient de la informació que hi ha disponible en obert per a evitar “picar” en un atac de phishing.

  • Prevenció de ciberatacs: Obtindre informació que ens faça estar a alerta davant una amenaça o un potencial ciberatac que puga patir la nostra organització.

  • Qualsevol investigació que es puga resoldre mitjançant l'aplicació de coneixements “Ciber”.

Cal tindre en compte que els cibercriminals també fan ús d'aquestes tècniques, per tant és interessant fer tests de les dades que obtenim amb OSINT, per a saber si nosaltres (com a persona o com a empresa) estem revelant més informació de la que ens interessa, i eliminar-la en cas que fora possible per a tancar possibles vectors d'atac.

Podem obtindre informació valuosa d'infinitat de recursos (Xarxes Socials, blogs, fòrums, notícies, documents,etc..)Si observem la informació corresponent a la quantitat d'informació que té internet en total, la quantitat d'informació que s'emmagatzema en RRSS en un minut, la quantitat de persones que accedeixen a Internet, les que tenen Xarxes Socials,…etc.

Ens adonem de les múltiples maneres que tenim d'obtindre informació que aquesta disponible de manera pública (Que no siga secreta no la fa menys important) , i del gran poder del coneixement que podem aconseguir tractant aquestes dades.

Això si, ací hem de presentar les 2 problemàtiques d'OSINT: L'excessiva quantitat de dades i la fiabilitat d'aquests. En Internet trobarem moltíssima informació, tota la quantitat que obtinguem serà excessiva i en molts casos no procedirà de fonts fiables. Per a evitar això haurem de realitzar un procés de garbellat de les dades, on ens quedarem amb aquells que ens proporcionen valor per a poder generar una bona intel·ligència i evitar així la desinformació.


El procés OSINT

OSINT consta d'una sèrie de fases que permeten estructurar el treball de manera que s'agilitze la investigació. A continuació donem una breu descripció d'aquestes fases:

  • Requisits: Que problema volem resoldre? Que info necessitem?

  • Identificació fonts d'informació: Que fonts ens poden aportar informació valuosa i veraç?

  • Adquisició: Etapa d'obtenció de la informació

  • Processament: Donar format a tota la informació “en brut” obtinguda en l'anterior fase

  • Anàlisi: Generar intel·ligència a partir de totes les dades obtingudes, trobant relacions entre aquests que ens permeten arribar a conclusions.

  • Presentació: Donar-li a la informació un format en el qual es puga comprendre de manera eficaç i senzilla.


Eines OSINT: Una recopilació de tools per a obtindre dades i convertir-los en ciberinteligencia

Més enllà d'aquesta recopilació, hi ha infinitat d'eines, i formarà part de la nostra habilitat tindre coneixement d'elles sabent com es pot adaptar millor a la nostra necessitat, per a així ser capaces de traure més profit. Això si, és fonamental conéixer bé l'eina en qüestió i estar segurs que fa correctament el que diu fer, i així evitar la desinformació.

Hi ha una gran quantitat d'eines per a OSINT, a continuació esmentarem algunes de les més destacades: Google Dorks, Maltego, Shodan, Recon-ng, TheHarvester, Creepy, Metagoofil,…etc.

L'ús d'eines ens facilitarà el labor de la investigació, cada eina aprofundeix sobre un àmbit concret de la investigació i la combinació d'aquestes ens permetrà obtindre una gran quantitat d'informació per a la nostra investigació.

Com es pot observar les opcions són grandíssimes, i moltes vegades l'èxit es basarà en la nostra originalitat a l'hora de saber quan, on i que eines emprar per a aconseguir més dades, i per descomptat de l'anàlisi que nosaltres fem d'aquests.

A més, cal tindre en compte que les eines venen i van, la qual cosa funciona hui, pot no funcionar demà, i demà hi haurà eines noves. Al final l'interessant és quedar-nos amb una metodologia i manera de conducta.

Google Dorks

També conegut com a Google Dorking o Google Hacking, consisteix en la utilització dels operadors de Google per a realitzar cerques avançades. Conéixer el funcionament dels operadors i aplicar l'enginy ens portarà a trobar informació molt valuosa. Cal tindre en compte que, Google indexa automàticament el contingut de qualsevol lloc web (si no se li indica el contrari), fent possible que d'aquesta manera puguem obtindre informació de qualsevol tipus.

En Google Hacking Database podem trobar una àmplia recopilació de diferents dorks que altres hackers van anar utilitzant a l'hora de realitzar diferents cerques avançades.

Bing Dorks

Mateixa idea que per a Google Dorks, havent-hi subtils diferències en la sintaxi dels operadors, la qual cosa ens brinda diferents opcions i possibilitats. Moltes vegades és una eina oblidada per la gran semblança que té amb la seua homòloga de Google, però cal tindre en compte que les “aranyes” que indexen la web són diferents en els 2 motors de cerca, la qual cosa fa que ens retornen diferents resultats als obtinguts amb un dork similar en Google.

Amb aquest cas, ja podem veure i entendre, el perquè no és mala idea conéixer diferents eines amb propòsits similars. Els resultats que ens brindaran totes dues alternatives podran ser complementaris i això sempre sumarà a l'hora d'obtindre més informació i més contrastada, millorant per tant, la qualitat de les nostres investigacions.

Shodan

Un potent motor de cerca que permet a l'usuari trobar diferents equips connectats a internet a través de diferents filtres. Habitualment conegut com “el Google dels hackers”, en Shodan podem trobar servidors, encaminadors, webcams, dispositius IOT, …etc. A més per a aprofundir en aquests, podem veure la informació que contenen els seus bàners. Utilitzant els filtres podrem afinar en les nostres cerques, ja que podrem buscar per país, ciutat, núm. port que aquest obert,data, …etc

Maltego

Es tracta d'una potent eina que recopila informació sobre un objectiu i ens la mostra en forma de graf, permetent-nos així analitzar còmodament les diferents relacions. Molt interessant quan posem d'objectiu a una empresa, persona o lloc web en fases inicials del reconeixement, ja que ens retornarà gran quantitat d'informació creuada, i ens servirà per a fer múltiples enumeracions en vectors pels quals podrem continuar investigant.

TheHarvester

Una interessant eina per línia de comandos que recol·lecta informació pública en la web(emails, subdominis,noms, URLs,…). Aquesta recol·lecció d'informació la pot fer de 2 maneres: Passiva i activa. Amb la recol·lecció passiva, no interactua en cap moment amb l'objectiu i obté tota la informació a través dels diferents motors de cerca integrats en l'eina.

Dades públiques disponibles per a treballar per les associacions

Què és data.europa?

El Portal europeu de dades recopila metadades a partir d'informació del sector públic disponible en portals de dades d'accés públic dels diferents països europeus. També ofereix informació sobre el procés de subministrament de dades i els beneficis de reutilitzar-los.

Les dades (oficials) oberts —també denominats «informació del sector públic» i «Dades obertes»— són aquelles recopilades, generades o finançades per organismes públics i que poden reutilitzar-se per a qualsevol fi sense cap cost. La llicència estableix les condicions d'ús. Els principis pels quals es regeixen les dades obertes s'expliquen detalladament en la pàgina Open Definition.


S'entén per informació del sector públic aquella que pertany a les administracions públiques. La Directiva relativa a la reutilització de la informació del sector públic ofereix un marc legal unificat per a l'establiment del mercat europeu de dades en poder de les institucions públiques. Aquest instrument s'assenta sobre els pilars bàsics del mercat interior: la lliure circulació de dades, la transparència i la competència lleial. Convé puntualitzar que no tots els continguts del sector públic són dades obertes.


Els avantatges d'utilitzar dades

Entre els diversos beneficis que brinden les dades obertes es troben una major eficiència de les administracions públiques, el creixement econòmic del sector privat i un major benestar social.

  1. Les dades obertes poden millorar el rendiment i contribuir a l'eficiència dels serveis públics. L'intercanvi de dades entre sectors permet optimitzar els processos i els serveis públics, per exemple, ajudant a detectar despeses innecessàries.

  2. L'economia pot beneficiar-se d'un millor accés a la informació, els continguts i els coneixements, la qual cosa al seu torn estimula el desenvolupament de serveis innovadors i nous models de negoci. Es crearan noves ocupacions com a resultat d'aquest impuls econòmic i també creixerà la demanda de treballadors capacitats per a treballar amb dades.

  3. El fet que la informació siga més transparent i accessible contribueix al benestar social. Les dades obertes afavoreixen la col·laboració, la participació i la innovació social.

Les dades obertes aporten eficiència, ja que la informació està disponible en temps real i és fàcilment accessible, la qual cosa millora la presa de decisions dels diferents actors.


Passos essencials que ha de seguir abans d'utilitzar les dades.

Primer de tot, cal tindre accés a les dades. Les dades no són una fi en si mateixos, sinó que poden utilitzar-se de diferents formes i servir a diferents propòsits. Així mateix, poden estar associats a diversos tipus de llicències, estar en diferents formats i ésser de major o menor qualitat.


  • Definisca el seu objectiu: la utilització de dades obertes pot afegir valor a les seues activitats de diferents formes. Les dades obertes permeten recaptar informació sobre un determinat tema en el qual es desitja aprofundir o fins i tot sobre el qual es vol escriure (com en el cas del periodisme de dades). Les dades obertes també poden aportar informació necessària per a una aplicació o un servei; així, poden oferir detalls sobre col·legis als desenvolupadors d'una eina per a ajudar els pares a trobar el centre més adequat per als seus fills. Les empreses poden utilitzar les dades obertes per a optimitzar els perfils dels seus clients i satisfer millor les seues necessitats. Ja siga per a fins privats o comercials, les dades obertes ofereixen tot un ventall de possibilitats.

  • Identifique les etiquetes de les dades: una vegada definit l'objectiu de les dades, és important determinar si s'ajusten a les seues necessitats, per a això ha de comprovar les metadades, això és, les dades sobre les dades. Per exemple, si desitja crear una aplicació per a identificar els millors col·legis d'educació primària d'un barri, ha de comprovar si els conjunts de dades que pretén utilitzar inclouen centres que imparteixen educació primària, si aquests es troben en la zona d'interés i si es disposa d'indicadors del seu rendiment.

  • Comprove si es tracta de dades obertes: consulte la informació de la llicència associada al conjunt de dades. Assegure's que existeix una llicència que permeta utilitzar les dades com té previst, això és, que autoritze la reutilització amb finalitats de lucre, si el que desenvoluparà és una aplicació comercial.

        • Comprove els requisits d'atribució d'autoria: la llicència podria exigir que les persones que utilitzen les dades facen el degut esment a qui els publica, la qual cosa implicaria incloure una referència al propietari en el producte o servei. És el que es coneix com a atribució d'autoria.

        • Comprove si es requereix compartir sota la mateixa llicència: si s'indica que els usuaris que combinen les dades amb uns altres també han de publicar aquests últims com a dades obertes, això implica que ha de divulgar les seues pròpies dades sota una llicència similar, després d'afegir-los a la font original. Aquesta modalitat es denomina compartir sota la mateixa llicència o «share alike». Assegure's que la llicència s'ajusta a la fi al que destinarà les dades.

  • Format de l'arxiu. Després de constatar que un conjunt de dades en concret s'ajusta exactament a les seues necessitats, probablement podrà descarregar les dades en diversos formats d'arxiu. Ha de triar el format més adequat per a vosté en funció dels seus coneixements d'informàtica. El format més habitual per a descarregar-se les dades en forma de taula és «.csv». Aquesta opció permet afegir informació a l'arxiu o realitzar càlculs amb les dades. Els conjunts de dades que poden modificar-se es publiquen en un format obert. La majoria de conjunts de dades estan disponibles en format obert, però alguns no poden modificar-se, com és el cas dels arxius «.pdf».

        • Com s'han processat les dades?

        • Són dades primàries o han sigut processats?

        • En quin sentit afecta la seua forma a la seua anàlisi/producte/aplicació?

        • Quines transformacions sintàctiques (llenguatge) i semàntiques (significat) serien necessàries?

        • Són compatibles amb altres conjunts de dades dels quals disposa?

  • Qualitat de les dades. La pàgina en la qual s'allotja el conjunt de dades que desitja descarregar sol indicar l'última data de modificació de l'arxiu. Si necessita restringir les dades a un període determinat, ha de comprovar si estan datats o si s'han actualitzat recentment. Convé comprovar que l'arxiu conté la informació esperada i assegurar-se d'interpretar correctament les etiquetes.

      • Es tracta de dades recents?

      • Amb quina freqüència s'actualitzen?

      • Comprén tots els camps i el seu context?

      • Durant quant temps es mantindrà la publicació? A què s'ha compromés qui publica les dades?

      • Quina informació posseeix sobre la precisió de les dades?

      • Com es gestiona l'absència de dades?

Què és datos.gob.es?

Datos.gob.es naix el 24 d'octubre de 2011 sota el si de la Iniciativa Aporta, promoguda pel llavors Ministeri d'Energia, Turisme i Agenda Digital, a través de l'Entitat Pública Empresarial Red.es, i en col·laboració amb el llavors també, Ministeri d'Hisenda i Funció Pública. La Iniciativa Aporta es va llançar en 2009 amb la finalitat de promocionar la cultura de l'obertura d'informació a Espanya.


Aporta sorgeix amb l'objectiu de crear les condicions per al desenvolupament del mercat de la reutilització de la informació del sector públic, així com, per a donar suport a les unitats administratives, en les activitats tècniques i organitzatives necessàries perquè publiquen dades obertes d'acord amb la legislació vigent i de la forma més amigable per a la seua reutilització.

Per a això, i gràcies a datos.gob.es, el Catàleg Nacional de Dades Obertes reuneix més de cent organismes públics que aporten un gran nombre de conjunts de dades al catàleg(Obri en nova finestra) present en el portal.

Destinataris

Aporta, mitjançant datos.gob.es, és nexe d'unió entre tots aquells que formen part de l'ecosistema de les dades:

  • Usuaris, ciutadans o professionals que demanden la informació.

  • Organismes públics que proporcionen i utilitzen informació pública.

  • Reutilizadors i infomediaris que creen productes i serveis basats en les dades.

Línies d'actuació

La iniciativa, emmarcada en l'Agenda Digital Espanyola, es desenvolupa al voltant set línies d'actuació:

  1. Difusió, sensibilització i formació: Aporta, a través del portal datos.gob.es , ofereix notícies d'actualitat, exemples reals, recomanacions i metodologies sobre la reutilització de la informació del sector públic.

  2. Catàleg nacional de dades obertes: datos.gob.es allotja el Catàleg Nacional de dades obertes que és punt únic d'accés als conjunts de dades que les Administracions Públiques posen a disposició per a la seua reutilització a Espanya.

  3. Estadístiques sectorials: Des d'Aporta i a través del portal es realitza un seguiment de l'activitat que es realitza entorn de les dades obertes i la seua reutilització.

  4. CPP Col·laboració público-privada: S'estableix un diàleg col·laboratiu entre les administracions públiques i aquelles companyies coneixedores del valor que ofereixen les dades obertes per al desenvolupament i impuls empresarial.

  5. Àmbit legislatiu i cooperació nacional: La Llei 37/2007, de 16 de novembre, sobre reutilització de la informació del sector públic conté la regulació bàsica del règim jurídic aplicable a la reutilització de la informació elaborada o custodiada per les administracions i organismes del sector públic.

  6. Cooperació internacional: Addicionalment a la labor que es desenvolupa a nivell nacional, Aporta és present en diversos projectes internacionals entre els quals cal destacar: l'European Data Portal , les Dades obertes Monitor i la participació en la xarxa temàtica Share-PSI 2.0 .

  7. Assessorament i suport: Aporta ve oferint des d'octubre 2012 un servei d'assessoria RISP als organismes públics per a la resolució de dubtes de caràcter operatiu i tècnic.

Drets humans, ètica i transparència algorítmica

Amb els avanços científics i tecnològics hem sigut testimonis de la transformació dels mitjans de comunicació, el canvi dels dispositius analògics als digitals, fins a arribar als aparells autònoms com els avions i actuacions, els drons i els robots, entre altres coses. Internet ha sigut una eina que sense cap dubte també ha tingut un impacte en aquesta transformació. Des de la seua creació en 1969 va tindre una gran rellevància en permetre que la informació no fora emmagatzemada en un sol lloc, ens referim a l'època d'ARPANET en la qual l'accés a la xarxa només estava a la disposició d'unes certes universitats i comunitats d'investigació. Amb el pas del temps en la dècada dels anys noranta va començar l'accés públic a la xarxa amb molt pocs usuaris al voltant del món, però d'aqueixa data a l'any 2018 més del 50% de la població a nivell global ja posseeix l'accés a internet.(Banc Mundial, 2019).

Gràcies a l'ús públic d'internet, els usuaris han alimentat amb la seua informació bases de dades que hui constitueixen un gran volum de dades que es troben emmagatzemats en diferents llocs, des de bases de dades en possessió d'agents governamentals fins a aquelles bases que estan en mans d'empreses com Facebook, Google, Amazon, Uber, entre moltes altres; però que també podrien estar sent recol·lectats per individus de manera independent sense que puguem conéixer qui ho està realitzant i amb quina finalitat ho fa.

És una realitat que en els pròxims anys les anàlisis de grans cúmuls de dades seran fonamentals tant en la indústria com en el sector governamental; determinant un increment en les activitats que es realitzaran de manera automatitzada, per la qual cosa es requerien de més especialistes en aquest camp del coneixement.

Aquesta situació obliga a ocupar-se dels principis ètics que s'estan reforçant per a comptar amb una ètica algorítmica que no violente els drets humans dels individus en aquestes societats hiperconectadas. Per a poder fer això realitat és pertinent entendre amb claredat com funciona la mineria de dades, les anàlisis de Big Data, la Intel·ligència Artificial, l'aprenentatge de les màquines, però sobretot entendre la rellevància de l'ètica en el maneig transparent dels algorismes que involucren als éssers humans.

La mineria de dades és una branca relativament jove dins de les ciències de la computació, en la qual a través de l'ús de camps com a intel·ligència artificial, aprenentatge automàtic, estadística i bases de dades és possible descobrir patrons i inferir informació nova a partir de grans col·leccions de dades. Hui dia s'aplica en àrees d'investigació molt diverses, per exemple, per a l'estudi del clima o la predicció d'incendis forestals, en biomedicina per a la detecció precoç de malalties, en enginyeria genètica per a l'estudi del genoma. S'ha usat i s'usa en el camp dels negocis per a detectar, per exemple, patrons de fugida de clients o fraus amb targetes de crèdit. També s'utilitza per a examinar xarxes elèctriques per a diagnosticar problemes i previndre falles totals o parcials de la xarxa”

D'aquesta manera volem donar claredat dels conceptes de transparència i ètica algorítmica en l'ús de les anàlisis de grans cúmuls de dades en el qual s'involucren dades dels individus. P

És important destacar que els Estats tenen la responsabilitat de garantir que amb l'ús d'aquestes tecnologies. Per aquesta raó resulta important garantir, entendre i exigir un disseny transparent i ètic dels algorismes.


Conceptes bàsics sobre ètica, algorismes i transparència algorítmica

Per a comprendre l'ètica algorítmica és necessari entendre què és l'ètica i com hauria de ser present en particular entre les persones que treballen quotidianament amb l'entrenament d'algorismes que tenen a veure amb les dades dels éssers humans.

Ètica és tant un hàbit o costum en el comportament dels individus com també el caràcter que es forma i modela per aquest mateix costum que pretén tindre com a resultat accions virtuoses. No podem apartar-nos que l'ètica fa referència al control del propi temperament i que es troba present en el moment que s'han de prendre decisions per a actuar d'una manera o d'una altra. L'ètica si bé es practica en la individualitat es crea en allò col·lectiu perquè és dins de la societat on es gesten els valors sobre les conductes correctes o incorrectes que es prenen amb base de les experiències que s'han viscut en cadascuna de les societats en particular.


Per la seua part l'ètica en la Intel·ligència Artificial (IA) és entesa com: IUS ET SCIENTIA un subcamp de l'ètica aplicada que estudia els problemes ètics que planteja el desplegament i utilització de la IA. La seua preocupació fonamental és identificar de quina manera pot la IA millorar o despertar inquietuds per a la vida de les persones, ja siga en termes de qualitat de vida o de l'autonomia i la llibertat humana necesarias per a una societat democràtica.

En aquest tenor és important entendre quina és la funció dels algorismes que són utilitzats per al desenvolupament de la IA. Els algorismes són una seqüència lògica i detallada de passos per a solucionar un problema. El seu camp és ampli i dinàmic i intervenen directament en la vida de les organitzacions ressolent problemes mitjançant programes de computadora en les diferents àrees. arlem d'un codi programari que processa un conjunt limitat d'instruccions

Un algorisme és una cosa que s'assembla a una recepta de cuina només que sense les ambigüitats pròpies de les receptes. Des del punt de vista formal, un algorisme és un procediment, és una recepta. Descriu la manera en la qual s'ha d'obtindre un resultat final partint d'una dada inicial. P

Un algorisme consta d'una sèrie de passos, en cadascun dels quals s'efectua una acció bàsica, o primitiva. És doncs un artifici matemàtic susceptible de ser implementat en un dispositiu mecànic, electrònic o físic.Hi ha diferents tipus d'algorismes. Hi ha algorismes deterministes (el pas següent a cada pas actual de còmput és un únic), indeterministes (pot haver-hi diverses possibilitats a ser assumides com a pas següent en cada pas actual), probabilistes (el pas següent es determina com una funció aleatòria del pas actual) i quàntics (cada pas actual és una superposición de diversos possibles).

Hi ha diverses variants d'aqueixos tipus: els algorismes heurístics, els genètics, els mimètics, els voraços, etc.

  • Des del punt de vista d'implementació, hi ha algorismes serials (només s'executan en un processador), distribuïts (diversos processadors realitzen diverses partes de l'algorisme) i paral·lels (s'executen de manera sincronitzada per diversos processadors).

  • Des del punt de vista de la seua composició hi ha algorismes recursius, iteratius, de força bruta, aleatoritzats, d'estratègies basades en “divideix i venceràs”, de programació dinàmica, etc.

  • Des del punt de vista de les aplicacions, hi ha algorismes sintàctics, numèrics, d'Optimització, de Càlcul Simbòlic, de Teoria de Gràfiques, de Geometria Computacional, de Bases de dades, de Xarxes, d'Intel·ligència Artificial, de Grans Cúmuls d'Informació, etc.


Les preguntes que busquen explorar giren al voltant de la la relació entre algorismes i societats humanes. Així doncs, ens concentrarem en l'aspecte d'aplicacions dels algorismes, en particular en aquells relacionats amb temes d'Intel·ligència Artificial i de Grans Cúmuls d'Informació.

Lla progressiva introducció de la tecnologia de les màquines en totes les facetes de la vida fa que esperem i confiem més en elles que en les pròpies persones i complementa que aquesta revolució una algorítmica té un dels grans desafiaments i amenaces ja les màquines i les tecnologies en general s'han fet més complexes tant que no es té la capacitat d'entendre com funcionen ni es poden anticipar comportaments inesperats o les bretxes de segureta. Els sistemes algorítmics són laberints incomprensibles, en molts casos fins per als enginyers, matemàtics i físics que les van escriure

Respecte a la relació que existeix ens el tema dels drets humans i el disseny d'algorismes: a un dissenyador d'algorismes se li ha de demanar com a part dels requeriments del problema que resoldrà que considere els drets humans com restriccions funcionals. També se li podria donar un manual sobre “drets dels gats” perquè faça algorismes amables amb aquests felins. Podem observar els algorismes en si no tenen relació diecta amb un tema en particular com els drets humans, sinó que al moment de dissenyar els algorismes és quan se'ls dota de restriccions perquè puguen desenvolupar determinades respostes, o donar resultats a determinats plantejaments que poden o no estar relacionats amb els individus i per consegüent amb els seus drets humans.

El disseny d'algorismes comporta una bona educació matemàtica i computacional. En aquests temps en què s'arriba a veure a l'accés a la ciència com un dret huma , el disseny d'algorismes pot ser vist també com a inherent als drets humans.

D'altra banda, des de les aplicacions hi ha molts punts a considerar. L'Algorítmica és essencial a la Computació i aquesta ho és a les comunicacions, a l'Administració Pública, a les relacions comercials i pràcticament a qualsevol aspecte de la vida moderna. Així, tots aquests aspectes comporten a l'Algorítmica. Comporten, així mateix, i al seu torn, aspectes de privacitat, de llibertat individual, de govern i de relacions socials. La millora de l'administració pública és proporcional a la quantitat d'informació que es compte, però aquesta és inversament proporcional a la privacitat i a nocions, diguem canòniques, de llibertat individual.

Diversos països han procurat conciliar aquests dos interessos (llibertat individual i eficiència administrativa) però aquesta polèmica està lluny de ser resolta. L'organització dels serveis mèdics actuals als EUA i a la Xina són exemples extrems d'atorgaments de prioritats en aqueixa dicotomia. També es té que les relacions socials no són completament deterministes, per la qual cosa en intentar mecanitzar-les li les restringeix. Per exemple, si es volguera reconèixer un tret social, diguem potencialitat per a obtindre un grau acadèmic, es pot precisar aqueix tret al nivell de tindre un procediment mecànic per a decidir si un individu el compleix o no, diguem un examen d'admissió i alguns criteris socio-econòmics. Amb això, una decisió negativa de compliment podria considerar-se com un acte de discriminació, encara que tal vegada no ho era. És en aquest sentit que pot haver-hi afectació a drets humans mitjançant l'Algorítmica.

Per tant, si les TIC poden ser benèfiques per a la vida dels individus, representen al seu torn riscos que es poden plasmar en actes disgregació, discriminació, vulnerabilitat de la llibertat d'expressió, d'accés a la informació per esmentar algunes. I

Entenent el concepte d'algorisme, els tipus d'algorismes i en particular l'algorítmica que s'utilitza per a realitzar activitats en la societat com pot ser el govern electrònic, el comerç en línia, la relaciones via xarxes socials, etcètera cal preveure que amb aquesta mena d'usos de la informació no es violenten els drets dels éssers humans i hi haja un respecte per la seua dignitat la qual: conté en si la idea que tot ésser humà posseeix un «valor intrínsec» que mai s'ha de menyscabar, posar en perill ni ser objecte de repressió per part d'uns altres (ni de les noves tecnologies, com els sistemes de IA).

En el context de la intel·ligència artificial, el respecte de la dignitat humana implica que totes les persones han de ser tractades amb el degut respecte que mereixen com a subjectes morals, i no com simples objectes que es poden filtrar, ordenar, puntuar, dirigir, condicionar o manipular. En conseqüència, els sistemes de IA han de desenvolupar-se d'una manera que respecte, protegisca i estiga al servei de la dignitat física i mental dels éssers humans, el sentiment d'identitat personal i cultural i la satisfacció de les seues necessitats essencials. (

En aquest tenor existeix la complexitat d'ajustar el disseny d'algorismes a la protecció dels drets humans. No obstant això, resulta complex per als Estats i les autoritats poder conéixer l'ètica amb la qual es dissenya un algorisme i màximament si aquesta acció es realitza per part d'ens privats. Llavors cal trballar per una transparència algorítmica.

Un algorisme pot ser auditat de manera estricta, de manera que sota les mateixes entrades i condicions d'operació és possible reproduir tot el que l'algorisme fa. No obstant això, aquesta auditoria que refereix no necessàriament es realitza en tots els algorismes que es dissenyen en un temps, espai i època determinada. Més aviat sorgeix la interrogant sobre la responsabilitat que concerneix als propis dissenyadors d'algoritmos o els qui sol·liciten el seu disseny respecte a les violacions de drets humans que pogueren derivar-se d'un determinat algorisme. E

La noció de transparència algorítmica s'ha entés com el dret de qualsevol individu a conéixer detalladament els criteris mecànics que li són aplicats per a decidir si posseeix o no un tret determinat, per a decidir si compleix o no amb un criteri predicat. Per descomptat que la transparència algorítmica és una condició desitjable, però no sempre pot ser atorgable i això per causes que van des de la falta d'interés o dels coneixements tècnics dels individus, fins a les reserves de confidencialitat de les parts decisòries. Per exemple, en Criptografia, és a dir en les comunicacions segures, el principi de Kerckhoffs, postulat en el segle XIX, estipula que un protocol segur ha de ser-ho encara que siguen de coneixement públic els procediments que utilitza, i la seua robustesa o seguretat, ha de dependre únicament de les claus que s'usen.

La Criptografia actual ho ha assumit, i els procediments de comunicacions segures d'Internet no sols són de coneixement públic, sinó que han sigut estandarditzats de manera que aqueixes comunicacions siguen susceptibles de ser realitzades per qualssevol dues participants en la xarxa. No obstant això, diverses empreses financeres desenvolupen alguns procediments propis i els mantenen en secret. Aquestes últimes empreses plantegen reserves també per a fer plenament públics els seus criteris per a classificar als seus clients o per a decidir si se'ls atorga o no crèdits o serveis d'un cert tipus.

Així, l'aplicació de criteris mecànics de decisió pot afectar els individus, i pot reclamar-se com un dret d'aquests el conéixer-los. La dicotomia apareix entre aqueix dret i la confidencialitat i reserva de les parts decisòries. D'una banda, el dret a la informació s'ha consagrat quasi de manera universal, així com també la possibilitat que existisca informació reservada. Diversos enfocaments han sigut asumitss, en diversos contextos, governamentals o no, per a caracteritzar el que ha considerar-se com a informació reservada, i aquests criteris han d'aplicar-se a si mateixos”.

Una de les seues directrius el dret a la transparència que es refereix al fet que “totes les persones tenen dret a conéixer la base d'una decisió d'AI que els concerneix. Això inclou l'accés als factors, la lògica i les tècniques que van produir el resultat”. (Directrius Universals sobre la Intel·ligència Artificial”. (

Ara bé, d'una banda trobem el dret a la transparència i per un altre cal preguntar als experts sobre el concepte d'ètica algorítmica. Si bé els algorismes no poden ser bons ni dolents, perquè són neutrals, no ho és l'aplicació dels mateixos i assenyala que això si representa un tema de discussió atès que per exemple: “Isaac Asimov, en els anys 40, va postular unes “lleis de la robòtica”, pròpies de la ficción científica, que tenien a veure amb el comportament ètic dels robots. En la pràctica, les lleis d'Asimov han sigut il·luses i ara existeixen drons, sense tripulants humans, que realitzen labors bèl·liques, val dir, d'extermini d'enemics humans.

Malgrat les connotacions, la qualitat de bo o dolent, d'ètic o no ètic depén de qui siguen els usuaris finals. Si el defensor és el sistema bancari i l'atacant és algú que busca cometre fraus, pot pensar-se que el defensor està de part de l'ètica. Si el defensor treballa per al crim organitzat i l'atacant és el sistema policíaco, és l'atacant qui podria estar del costat ètic.

Els algorismes són elements neutres des del punt de vista de l'ètica. Són els usuaris els qui han de sotmetre's a l'ètica en l'ús d'ells. Un dilema similar es va donar a la fi de la Segona Guerra Mundial amb el desenvolupament del Projecte Manhattan de la bomba atòmica per canviats de nom científics físics i matemàtics. Els algorismes permeten elaborar respostes a problemàtiques i fins i tot fan po- sible que les màquines puguen ser un agent que puga interactuar amb els éssers humans i amb altres màquines. La IA per a poder funcionar necessita analitzar el seu entorn i accionar per a un determinat fi com pot ser un assistent com Siri o Cortana, “... programes d'anàlisis d'imatges, motors de cerca, sistemes de reconeixement facial i de veu), però la IA també pot estar incorporada en dispositius de maquinari (p. ex. robots avançats, automòbils autònoms, drons o aplicacions d'internet de les coses)”.

La “Declaració de Barcelona per a l'Ús Apropiat de la Intel·ligència Artificial”, celebrat el 18 de març de 2017, és un manifest que plasma les preocupacions respecte a l'ús maliciós, o inapropiat i fins i tot prematur de les noves tecnologies que a més d'alertar sobre aquesta situació planteja un codi de conducta basat en sis punts a saber: prudència, fiabilitat, transparència, responsabilitat, autonomia restringida i el paper humà.

El resultat de IA de l'organisme AI Now Institute, de l'any 2019 conclou que a pesar que s'han incrementat els marcs ètics sobre els sistemes de IA es continuen implementant dominis sobre temes com ara la medicina, l'educació, l'ocupació, la justícia penal sense l'adequada cura en les estructures en les quals es basa i encara és poc clar el tema de les responsabilitats que es deriven d'un mal maneig de la IA que van des del mal ambiental com per exemple en l'extracció desmesurada de la minerals de la terra, o bé la dependència dels sistemes de salut en la IA que podria portar com a conseqüència la mort dels pacients.

La participació de reguladors, investigadors, treballadors i defensors assenyala el mateix resultat, forgen nous llaços de solidaritat que són necessaris per a establir les condicions apropiades sobre l'ús i progrés de la IA que garantisca bons auguris en el futur. (AI Now Repot, 2019, pàg. 58 i 59)

És així com s'arriba a estudis com els presentats l'any 2019 del Grup d'Independent d'Experts d'Alt Nivell sobre Intel·ligència Artificial de la Unió Europea que han treballat sobre una Guia referent a com aconseguir una IA Fiable

Alguns principis de la IA fiable per a evitar la vulneració de DDHH

Els drets humans que pogueren veure's vulnerats amb l'ús de la IA són diversos. Bàsicament el primer dels drets que es veuen relacionats en el tema de les anàlisis de big data es troba la privacitat que encara que si bé no existeix un concepto de privacitat únic o tancat, s'observa que almenys en ordenaments jurídics com el nord-americà se sol utilitzar el concepte del “dret a no ser molestat”, o el “dret a la intimitat”, “dret a ser deixat en pau”; això derivat del context i fins i tot l'idioma al qual es fa referència sobre la privacitat trobem en el francés l'ús del concepte de vida privada (vie provée) en lloc de privacitat i en l'idioma anglés es tradueix en dret a la privacitat o dret estar sol (right to privacy o right to be alone), o en italià reserva de la informació (riservatezza della informazioni).

Així totes aquestes concepcions al voltant de privacitat tornen encara més complex el donar una definició. Servisca ara com ara amb identificar a la privacitat com aquell dret que posseeixen les persones perquè no hi haja una interferència en la seua actuar quotidià, l'absència d'intromissió de tercers en la vida de les persones. No obstant això, s'ha de tindre en compte que no sols és la privacitat de les persones el tema que es veu compromés quan es fa ús de la IA.

També el tema de la discriminació, que és un altre dels aspectes en els quals es pot incidir si es manca d'una ètica de la intel·ligència artificial, també es poden generar discursos d'odi, i inclusivament l'elaboració de llistes negres en franca vulneració dels drets dels individus.

Afortunadament “una nova generació de filòsofs està militant en l'activisme global posant l'èmfasi i ajudant, en la introducció de la sensibilitat cap als valors humans a l'hora de dissenyar sistemes de IA, (ro)bots o qualsevol programari que tinga un potencial impacte en les persones.

Quan procediments o protocols automatitzats (algorismes) decideixen pels éssers humans i damunt ho fan de manera esbiaixada i en contra de drets i llibertats civils que les persones posseeixen es produeix un fenomen ètic particular: el mal causat té difícil identificació per a rendició de comptes i/o responsabilitat, la complexitat de la programació dels algorismes impedeix corregir o esmenar...

Per això es planteja la necessitat de comptar amb una ètica fiable de la Intel·ligència Artificial que serà garantida seguint determinats principis com és el principi d'explicabilitat, el principi d'equitat, el principi de diversitat i el de no discriminació que és definiu pels mateixos experts com: Principi d'explicabilitat “significa que els processos han de ser transparents, que cal comunicar obertamente les capacitats i la finalitat dels sistemes de IA i que les decisions han de poder explicar-se a les parts que es vegen afectades per elles de manera directa o indirecta. Sense aquesta informació, no és possible impugnar adecuadamente una decisió. No sempre resulta possible explicar per què un model ha generat un resultat o una decisió particular (ni quina combinació de factors atribuir a això).

Aqueixos casos, que es denominen algorismes de «caixa negra», requereixen especial atenció. En tals circumstàncies, pot ser necessari adoptar altres mesures relacionades amb l'explicabilitat (per exemple, la traçabilitat, l'auditabilitat i la comunicació transparent sobre les prestacions del sistema), sempre que el sistema en el seu conjunt respecte els drets fonamentals.

El grau de necessitat d'explicabilitat depén en gran manera del context i la gravetat de les consequencies derivades d'un resultat erroni o inadequat”

Principi d'equitat

El desenvolupament, desplegament i utilització de sistemes de IA ha de ser equitatiu. Malgrat que reconeixem que existeixen moltes interpretacions diferents de l'equitat, creiem que aquesta té tant una dimensió substantiva com procedimental. La dimensió substantiva implica un compromís de: garantir una distribució justa i igualitària dels beneficis i costos, i assegurar que les persones i grups no patisquen biaixos injustos, discriminació ni estigmatització. Si es poden evitar els biaixos injustos, els sistemes de IA podrien fins i tot augmentar l'equitat social. També s'hauria de fomentar la igualtat d'oportunitats en termes d'accés a l'educació, els béns els serveis i la tecnologia. A més, l'ús de sistemes de IA no hauria de conduir mai al fet que s'enganye els usuaris (finals) ni es limite la seua llibertat d'elecció. Així mateix, l'equitat implica que els professionals de la IA haurien de respectar el principi de proporcionalitat entre mitjans i fins, i estudiar acuradament com aconseguir un equilibri entre els diferents interessos i objectius contraposats.

La dimensió procedimental de l'equitat comporta la capacitat d'oposar-se a les decisions adoptades pels sistemes de IA i per les persones que els manegen, així com de tractar d'obtindre compensacions adequades enfront d'elles. A aquest efecte, s'ha de poder identificar a l'entitat responsable de la decisió i explicar els processos d'adopció de decisions

Principi de diversitat, no discriminació

Per a fer realitat la IA fiable, cal garantir la inclusió i la diversitat al llarg de tot el cicle de vida dels sistemes d'intel·ligència artificial. A més de tindre en compte a tots els afectats i garantir la seua participació en tot el procés, també és necessari garantir la igualtat d'accés mitjançant processos de disseny inclusius, sense oblidar la igualtat de tracte. Aquest requisit està estretament relacionat amb el principi d'equitat

La diversitat i la inclusió exerceixen un paper essencial en desenvolupar els sistemes de IA que s'utilitzaran en el món real. És crucial que, a mesura que els sistemes de IA vagen exercint una major quantitat de tasques per si mateixos, els equips encarregats de l'adquisició o del disseny, desenvolupament, assaig, manteniment d'aquests sistemes reflectisquen la diversitat dels usuaris i de la societat en general. Això contribueix a garantir l'objectivitat i la presa en consideració de les diferents perspectives, necessitats i objectius. L'ideal és que la diversitat no sols es materialitze en els equips en termes de gènere, cultura i edat, sinó també d'antecedents professionals i conjunts de competències. Així, el talent humà que intervé en la creació de la IA ha de considerar que aquells encarregats de la recol·lecció de dades tenen i segueixen codis d'ètica, que s'apeguen a la privacitat dels individus i que segueixen els principis de la protecció de dades com és que es recol·lecten amb finalitats lícits, que els individus coneixen i autori- zan l'ús de la seua informació.

Referent a això es fa necessari conéixer com s'està formant l'ètica en la IA en el talent humà, en quines carreres universitàries a banda de ciències de la computació hauria d'impartir-se obligatòriament formació sobre els drets humans, la protecció de dades i la privacitat tendent a reflexionar sobre els comportaments ètics i la vulneració de drets per mitjà del maneig inadequat de la informació de grans cúmuls de dades.

Els comportaments ètics entorn de la IA i el maneig de grans cúmuls de dades és un tema vigent i necessari en les agendes dels Estats perquè per la seua pròpia naturalesa, no pot haver-hi un control sobre la recol·lecció de la informació que s'obté, suprimeix, modifique o esborre en la xarxa de xarxes per això un acostament referent a això és precisament incidir en la formació del talent humà que haurà de treballar amb aquestes valuoses informacions.

Ètica i Transparència en la IA com a part de la cultura de respecte als drets humans

És comprensible que si no hi ha un control sobre els qui dissenyen algorismes pot existir un algorisme que en aquests moments s'estiga utilitzant en franca violació als dretshumans i que no obstant això no tenim consciència d'estar fent ús de les nostres pròpies dades.

Les maniobres de col·lusió i/o monopoli de les empreses tecnològiques de Sillicon Valley per a munyir-nos com a “vaques digitals” i així extraure'ns totes les dades possibles que només ells controlaren com a senyors feudals; [per això] no sols és necessari una legislació forta com el Reglament Europeu de Protecció de Dades sinó l'ètica i la cultura

En aquest aspecte és precisament fonamental l'ètica que s'ha gestat ja entorn del tema de la IA i per descomptat la conseqüent cultura que es comença a adquirir per part de tots els involucrats en el tema de les noves tecnologies, el maneig de dadess i tot el tema relacionat als drets humans i les seues vulneracions per l'ús de tecnologies de la informació i comunicació,

Cal entendre i saber qui decideix, qui governa i qui distribueix la informació; essencial per a les llibertats individuals i les nostres democràcies. Les implicacions ètiques d'una societat cada vegada més governada pels algorismes obliguen a la indústria, acadèmia i institucions púbiques a buscar aliances per a crear una gobernança transparent, ètica i justa de la caixa de Pandora que pot ser la IA.

Com a societats al voltant del món es fan intents perquè aquests temes acaben a l'interior dels Estats però que al mateix temps siguen temes que arriben fins als ciutadans del carrer dels qui també es recapten, tracten, emmagatzemen i en general tracten dades o que són usuaris de tecnologies de IA que fins i tot podrien estar influenciant sobre què comprar, a on anar, o fins i tot què pensar.

La progressiva opacitat dels algorismes i concentració de la tecnologia en mans privadas són un problema.

Mentre que la Intel·ligència Artificial en forma d'aprenentatge automàtic (machine learning) i especialment de ‘aprenentatge profund’ (Deep learning), alimentat per Big Data, es fa cada vegada més poderosa i s'aplica en un número creixent de nous productes i serveis digitals en els sectors públic i privats, el seu funcionament intern s'està fent extremadament difícil, si no impossible, de seguir, explicar i avaluar críticament. A més, aquestes capacitats avançades s'estan acumulant en gran part en mans privades.

No menys rellevant és reflexionar sobre les persones, institucions, organitzacions que es veuen involucrades en la IA i les seues obligacions, però també les seues responsabilitats quan es vulneren drets humans per usar aquesta IA.

La investigació, el disseny i el desenvolupament de IA, la robòtica i els sistemes “autónoms” han de guiar-se per una autèntica preocupació per l'ètica de la investigació, la responsabilitat social dels desenvolupadors i la cooperació acadèmica global per a protegir els drets i valors fonamentals, dissenyant tecnologies que els respatlen en comptes de restar-los valor.


Finalment hi ha dos temes que han de ser considerats per a assolir una cultura que es relacione amb l'ètica i transparència de la IA i que per consegüent es trobe harmònicament amb el respecte als drets humans que és la democràcia en la IA i l'Estat de Dret i la responsabilitat de tots els actors que intervenen en el procés de creació de IA.

  1. Democràcia: Les decisions clau sobre la regulació del desenvolupament i l'aplicació de la intel·ligència artificial han de ser el resultat del debat democràtic i la participación pública. Un esperit de cooperació global i de diàleg públic sobre el tema garantirà que les decisions sobre aquest tema es prenguen de manera inclusiva, informada i amb visió de futur. El dret a rebre educació o d'accedir a informació sobre noves tecnologies i les seues implicacions ètiques facilitarà que tots entenguen els riscos i les oportunitats, i estiguen facultats per a participar en els processos de presa de decisions que determinen de manera crucial el nostre futur

  2. L'Estat de Dret, l'accés a la justícia i el dret a una reparació i un judici just proporcionen el marc necessari per a garantir el respecte als drets humans en la possible regulació específica de la IA. Això inclou la protecció contra els riscos derivats dels sistemes ‘autònoms’ que podrien infringir els drets humans, com la seguretat i la privacitat. En aquest sentit, els governs i les organitzacions internacionals haurien d'augmentar les seues esforços per a aclarir amb qui recau la responsabilitat pels danys causats pel comportament indesitjat dels sistemes “autònoms”. A més, haurien d'existir sistemes efectius de mitigació de danys

S'observa que en entendre als algorismes com una sèrie de passos perquè les màquines puguen realitzar determinades activitats pot donar-nos una falsa percepció que al voltant d'aquestes accions no pot haver-hi fallades i que la Intel·ligència Artificial només porta aparellats beneficis per als individus, aquestes fal·làcies poden provocar vertader mal als individus ja que els algorismes no sols creen solucions sinó problemes


L'ús de les tecnologies representa grans encerts per a la humanitat però també grans desafiaments. Al llarg d'aquest treball s'ha deixat de manifest que si bé els individus utilitzem les tecnologies no necessàriament som conscients del que l'algorísmia poc ètica pot portar aparellat per a nosaltres. D'acord amb la informació brindada es pot indicar que el tema de l'ètica algorítmica i la Intel·ligència Artificial fiable depenen en gran manera de la conscienciació que es té del tema entre els diversos participants en el tema que van des dels di- señadores d'algorismes però també d'aquells responsables de tractament de dades, aquells que encarreguen el disseny d'una seqüència lògica per a atacar un problema específic i per tant les universitats que brinden l'educació i capacitació en el tema, els Estats a través dels seus governs que prevegen les possibles vulnerabilitats i riscos així com estar preparats per a les possibles conseqüències i eventualitats, les empreses que poden estar recol·lectant informació personal, i tractant-la sense deixar de costat les bones pràctiques que es tinguen per a protegir els drets humans per damunt de les seqüències lògiques que pretenen brindar solucions a problemàtiques específiques.

Un tema que no ha de ser deixat de costat és el que respecta a la transparència amb què s'obtenen, tracten, conserven i en general utilitzen les dades dels individus ja que la mineria que es fa de les dades dels individus no és necessàriament coneguda pels individus els qui som al final del dia els qui aportem la matèria primera per al disseny d'aquests mateix algorismes i que aquesta mineria no necessàriament resulta manejar-se del tot èticament.

Un observatori per a vigilar algorismes amb impacte social

Si la intel·ligència artificial sembla enigmàtica no és perquè estiga llunyana, sinó perquè és opaca. Cada vegada hi ha més algorismes presents en plataformes i programes que usem diàriament, però sabem poc sobre ells. Encara que les seues lògiques siguen invisibles, els seus efectes són evidents.

Com vigilar als algorismes?

Una opció són les iniciatives de la societat civil, universitats o organismes independents que han començat a buscar maneres de tindre més informació sobre aquests trossos de codi que s'utilitzen per a prendre decisions.

A Espanya, una consultora impulsa el primer observatori d'algorismes amb impacte social en el qual es recol·lecten dades d'una sèrie de 57 algorismes considerats amb impacte social, dels quals 16 tenen aplicació en el territori espanyol, perquè són del Govern i d'una dotzena de grans companyies com Google, Facebook, Twitter, Netflix, Uber o Microsoft.

Els algorismes usats en les relacions laborals d'Uber, Deliveroo, Glovo i els que es poden estar usant en projectes de reconeixement facial o vigilància biomètrica “són probablement dues dels quals més impacte social poden estar tenint a Espanya hui. També existeixen “els de tota la vida” igualment importants a nivell efectes en les vides dels ciutadans: són els que decideixen si el banc et dona un préstec o hipoteca (credit score) i els que filtren continguts en internet i t'ho ofereixen en funció del que la indústria de la publicitat vol ensenyar-te”


Auditar algorismes per a l'avaluació de riscos

Alguns governs també busquen com vigilar als algorismes. L'Estratègia Nacional de la Intel·ligència Artificial, presentada pel Govern d'Espanya inclouen l'auditoria dels algorismes com un dels principals elements del sistema d'avaluació de riscos.

L'Observatori d'Algorismes amb Impacte Social de Eticas Research & Consulting, una empresa especialitzada en consultoria empresarial, consisteix en una base de dades en Airtable que pot veure's en la versió en anglés del seu web. És “un repositori de tota la informació que hem pogut extraure dels algorismes que recull.

Algorismes opacs però amb impacte social

Aquestes automatitzacions són la solució a milers de problemes als quals les nostres societats complexes s'enfronten diàriament, i com hem pogut comprovar durant la pandèmia, són part de la digitalització que ens ha permés seguir avant quan tot es parava. Però encara que les màquines solen ser eficaces i treballar amb rapidesa, algorisme no és sinònim de decisions justes.

Què és la IA i per què té biaixos


Els biaixos dels algorismes provenen dels humans: són els de la informació amb la qual li'ls entrena. Estan en el centre d'un debat en el qual es qüestiona l'ètica en els desenvolupaments d'intel·ligència artificial. Sabem que provoquen vulneració de les llibertats i drets, però a més tenen efectes directes sobre la vida de les persones: quan és un algorisme el que decideix que se t'atorgarà o no un crèdit que pot canviar la teua vida en els pròxims 5 o 10 anys, quan és un algorisme el que t'avalua en el treball, o quan decideix la quantitat de treballs se t'assignen, o si et contractaran o no.


Entre els algorismes observats per Eticas hi ha diversos relatius a reconeixement d'imatges: l'utilitzat per la policia nacional d'Itàlia; i un altre per a biometria facial, desenvolupat per Amazon. Es poden trobar molts utilitzats per les forces de seguretat per a predir crims : el de la policia belga, el de la policia de Trento, Itàlia; el de la policia i serveis d'intel·ligència danesos desenvolupat per la companyia estatunidenca Palantir.

Apareixen en la llista el del ministeri de Justícia de Polònia, que s'utilitza per a assignar casos a jutges; e-Riscanvi utilitzat a les presons catalanes per a avaluar el risc de reincidència; i iBorderCtrl, un detector de mentides automàtic desenvolupat per la firma European Dynamics i utilitzat a les fronteres de la Unió Europea per a estrangers.

Trobem també algorismes utilitzats per a categoritzar a grups de població vulnerable: un per a predir el risc d'embaràs adolescent, un altre d'abandó de l'escolarització, tots dos en Salta, l'Argentina.


Hi ha diversos exemples d'algorismes per a determinar ajudes socials: un del Govern flamenc per a fer perfils dels candidats a ocupacions públiques, que basat en el seu comportament en línia, prediu els seus interessos i l'adequació al lloc de treball. L'utilitzat pel Servei Públic d'Ocupació Estatal (SEPE) a Espanya, que determina beneficis, formació i oportunitats d'ocupació a aturats. A Colòmbia, un altre denominat SISBEN, utilitzat per a determinar quins grups reben beneficis socials.


PredPol, també en la llista, és un algorisme predictiu que utilitza el ministeri de l'Interior de l'Uruguai per a predir els punts calents en els quals ocorreran crims. Aquest sistema ja havia sigut utilitzat per altres forces policials com les d'Oakland a Califòrnia, i Kent a Anglaterra, que va acabar abandonant-lo. El programari de PredPol és propietari i opera com una caixa negra. Això vol dir que en ser propietat protegida, els seus resultats no poden ser explicats a través de l'experimentació causal. Encara que s'alimenta de dades públiques, no podem saber com funciona i per què llança els resultats que ixen d'ell. Aquests sistemes de “punts calents” no intenten predir el comportament individual, sinó marcar punts geogràfics on hi ha més probabilitats que ocórreguen fets delictius.

Mentre això sembla ser una forma objectiva de lluitar contra el crim, en realitat l'algorisme produeix uns resultats que provoquen mal en unes comunitats marginalitzades. Com els crims més greus ocorren amb menys freqüència que els xicotets furts, aquests constitueixen la porció més gran de tot el conjunt de dades de l'algorisme. El resultat d'això és que el model tendeix a dirigir l'atenció de la policia cap a aqueixa mena de crims, que normalment succeeixen en barriades de classe treballadora o minories socials. Es produeix llavors un cercle viciós: quantes més patrulles s'envien a aqueixes zones, més activitat criminal localitzada en aqueixes zones és reportada a l'algorisme. El procés confirma la predicció de l'algorisme i aquests barris continuen sent patrullats i reportats excessivament.


Com observar a un algorisme

La dificultat d'accedir al codi d'algorismes com aquests implica que el treball de cerca es puga allargar en el temps, com expliquen des de l'organització. Com ho fan i què és el que revisen en cada algorisme? Es requereix un treball de fons de manera constant i també d'actualitzacions periòdiques, expliquen.

El treball comença en trobar informació pública i després investiguem en profunditat sobre l'algorisme, però sense accés al seu codi és molt difícil. Pot prendre moltíssim temps depén dels objectius que tens, nosaltres volem actualitzar l'observatori mensualment si és possible. El projecte es denomina col·laboratiu i la pàgina té un enllaç perquè qualsevol persona puga escriure'ls.


Què demanem a un algorisme perquè siga ètic

La informació que podem trobar actualment sobre cadascun dels algorismes seleccionats es troba disseccionada en categories, que inclouen qui ho desenvolupa, qui ho aplica, en quin àmbit geogràfic, si ha sigut auditat, amb quin objectiu s'aplica i quin impacte social té, entre altres. Moltes columnes es troben buides.

Des d'EDRi assenyalen que el que s'hauria de demanar a un algorisme per a auditar-lo és saber què usa com a base per als càlculs (input), com els fa i què és el que trau com a resultat (output). É

Controlar els algorismes

En 2018, l'Ajuntament de Nova York va crear un grup de treball per a estudiar l'ús dels sistemes de decisió automatitzats (ADS) a la ciutat. La preocupació: les agències governamentals empraven cada vegada més algorismes per a fer de tot, des d'informar sentències penals i detectar fraus de desocupació fins a prioritzar casos d'abús infantil i distribuir beneficis de salut. I els legisladors, per no parlar de les persones governades per les decisions automatitzades, sabien poc sobre com es realitzaven els càlculs.


Els rars indicis de com funcionaven aquests algorismes no van ser reconfortants: en diversos estats, els algorismes utilitzats per a determinar quanta ajuda rebran els residents dels assistents de salut en la llar han reduït automàticament els beneficis per a milers. Els departaments de policia de tot el país usen el programari PredPol per a predir on ocorreran futurs delictes, però el programa envia a la policia de manera desproporcionada als veïnats negres i hispans. I a Michigan, un algorisme dissenyat per a detectar reclams fraudulents de desocupació va marcar incorrectament a milers de sol·licitants, la qual cosa va obligar als residents que haurien d'haver rebut assistència a perdre les seues llars i declarar-se en fallida .

La de la ciutat de Nova York va ser la primera legislació del país destinada a llançar llum sobre com les agències governamentals utilitzen la intel·ligència artificial per a prendre decisions sobre persones i polítiques.


En aqueix moment, la creació del grup de treball va ser anunciada com un moment decisiu que marcaria el començament d'una nova era de supervisió. I, de fet, en els quatre anys transcorreguts des de llavors, un flux constant d'informes sobre els danys causats ​​pels algorismes d'alt risc ha portat als legisladors de tot el país a presentar quasi 40 projectes de llei dissenyats per a estudiar o regular l'ús d'ADS per part de les agències governamentals, segons The Markup. revisió de la legislació estatal.


Els projectes de llei van des de propostes per a crear grups d'estudi fins a exigir a les agències que auditen els algorismes a la recerca de biaixos abans de comprar sistemes als proveïdors. Però les dotzenes de reformes proposades han compartit un destí comú: en gran manera han mort immediatament després de la seua introducció o han expirat en els comités després de breus audiències.


A la ciutat de Nova York, aqueix grup de treball inicial va tardar dos anys a fer un conjunt de recomanacions àmplies i no vinculants per a una major investigació i supervisió. Un membre del grup de treball va descriure l'esforç com un "desaprofitament". El grup ni tan sols va poder posar-se d'acord sobre una definició per als sistemes de decisió automatitzats, i diversos dels seus membres, en aqueix moment i des de llavors, han dit que no creien que les agències i els funcionaris de la ciutat hagueren acceptat el procés.


En altres llocs, quasi totes les propostes per a estudiar o regular els algorismes no han sigut aprovades. Els projectes de llei per a crear grups d'estudi per a examinar l'ús d'algorismes van fracassar a Massachusetts, l'estat de Nova York, Califòrnia, Hawaii i Virgínia. Els projectes de llei que requereixen auditories d'algorismes o que prohibeixen la discriminació algorítmica han mort a Califòrnia, Maryland, Nova Jersey i l'estat de Washington. En diversos casos, Califòrnia, Nova Jersey, Massachusetts, Michigan i Vermont, els projectes de llei de supervisió o estudi d'ADS segueixen pendents en la legislatura, però les seues perspectives en aquesta sessió són escasses, segons els patrocinadors i defensors en aqueixos estats.


L'únic projecte de llei estatal que es va aprovar fins ara, el de Vermont , va crear un grup de treball les recomanacions del qual (formar una comissió permanent de IA i adoptar regulacions) han sigut ignorades fins ara.


Per què les legislatures no han regulat aquestes eines.


Trobem dues línies directes clau: els legisladors i el públic manquen d'accés fonamental a la informació sobre quins algorismes estan usant les seues agències, com estan dissenyats i que significativament influeixen en les decisions. En molts dels estats els legisladors i activistes van dir que les agències estatals havien rebutjat els seus intents de recopilar informació bàsica, com els noms de les eines que s'utilitzen.


Mentrestant, les grans empreses tecnològiques i els contractistes del govern han fet fracassar la legislació en argumentar que les propostes són massa àmplies (en alguns casos afirmen que evitarien que els funcionaris públics usen calculadores i fulls de càlcul) i que exigir a les agències que examinen si un sistema ADS és discriminatori mataria la innovació i augmentar el preu de les compres governamentals.


Els legisladors van lluitar per descobrir quins algorismes estaven en ús

Un dels majors desafiaments als quals s'han enfrontat els legisladors en tractar de regular les eines ADS és simplement saber què són i què fan.

En 2018, Vermont es va convertir en el primer estat a crear el seu propi grup d'estudi ADS . En concloure el seu treball en 2020, el grup va informar que hi ha exemples en els quals els governs estatals i locals han utilitzat aplicacions d'intel·ligència artificial, però en general el Grup de Treball no ha identificat moltes d'aquestes aplicacions.

En 2019, el Senat de Hawaii va aprovar una resolució sol·licitant que l'estat convoque un grup de treball per a estudiar l'ús dels sistemes d'intel·ligència artificial per part de les agències, però la resolució no va ser vinculant i no es va convocar cap grup de treball, segons l'Oficina de Referència Legislativa de Hawaii. Els legisladors van intentar aprovar una resolució vinculant novament l'any vinent, però van fracassar .

Els legisladors i els grups de defensa que van redactar projectes de llei ADS a Califòrnia, Maryland, Massachusetts, Michigan, Nova York i Washington van dir que no tenen una comprensió clara de la mesura en què les seues agències estatals utilitzen les eines ADS.

A Washington, després que un projecte de llei de regulació d'ADS fracassara en 2020, la cambra legislativa va crear un grup d'estudi encarregat de fer recomanacions per a la legislació futura. L'ACLU de Washington va proposar que el grup enquestara a les agències estatals per a recopilar més informació sobre les eines que estaven usant, però el grup d'estudi va rebutjar la idea, segons les actes públiques de les reunions del grup. Una de les barreres que continuem trobant quan parlem amb els legisladors sobre la regulació dels ADS és que no entenien què tan freqüent era el problema.


Els legisladors diuen que la influència corporativa és un obstacle

El projecte de llei més recent de Washington s'ha estancat en el comité, però és probable que es torne a presentar una versió actualitzada enguany ara que el grup d'estudi ha completat el seu informe final. La legislació hauria requerit que qualsevol agència estatal que busque implementar un sistema ADS produïsca un informe algorítmic de rendició de comptes que divulgue el nom i el propòsit del sistema, quines dades usaria i si el sistema havia sigut provat de manera independent per a detectar biaixos, entre altres requisits.

El projecte de llei també hauria prohibit l'ús d'eines ADS que són discriminatòries i requeriria que qualsevol persona afectada per una decisió algorítmica siga notificada i tinga dret a apel·lar aqueixa decisió.

El gran obstacle és la influència corporativa en els processos governamentals. Washington és un estat amb bastant alta tecnologia i, per tant, l'alta tecnologia corporativa té molta influència en els sistemes.

El projecte de llei de Califòrnia, que és similar, encara està pendent en el comité. Encoratja, però no exigeix, als proveïdors que busquen vendre eines ADS a agències governamentals a presentar un informe d'impacte ADS juntament amb la seua oferta, que inclouria divulgacions similars a les requerides pel projecte de llei de Washington.

També requeriria que el Departament de Tecnologia de l'estat publique els informes d'impacte per als sistemes actius en el seu lloc web.

Liderats per la Cambra de Comerç de Califòrnia, 26 grups de la indústria, des de representants de grans tecnologies com l'Associació d'Internet i TechNet fins a organitzacions que representen a bancs, companyies d'assegurances i fabricants de dispositius mèdics, van signar una carta en contra del projecte de llei. Hi ha molts interessos comercials i tenen les oïdes de molts legisladors

Els intrigants de la indústria han criticat repetidament la legislació en els últims anys per definicions massa àmplies dels sistemes de decisió automatitzats a pesar que les definicions reflecteixen les utilitzades en els marcs d'ètica de IA reconeguts internacionalment , les regulacions al Canadà i les regulacions proposades a la Unió Europea.

El projecte de llei de Maryland, que va morir en el comité, també hauria requerit que les agències produïren informes que detallaren el propòsit bàsic i les funcions de les eines ADS i hauria prohibit l'ús de sistemes discriminatoris.

El Maryland Tech Council, un grup de la indústria que representa a petites i grans empreses de tecnologia en l'estat, es va oposar al projecte de llei, argumentant que les prohibicions contra la discriminació eren prematures i perjudicarien la innovació en l'estat, segons el testimoniatge escrit i oral que va proporcionar el grup.

Èxit limitat en el sector privat

Hi ha hagut menys intents per part de les legislatures estatals i locals de regular l'ús dels sistemes ADS per part de les empreses privades però en els últims anys, aqueixes mesures han tingut un èxit marginal.

El Consell de la Ciutat de Nova York va aprovar un projecte de llei que requeriria que les empreses privades realitzen auditories de biaix de les eines algorítmiques de contractació abans d'usar-les. Molts ocupadors utilitzen les eines per a seleccionar candidats de treball sense l'ús d'un entrevistador humà.

Illinois també va promulgar una llei estatal en 2019 que requereix que els ocupadors privats notifiquen als candidats quan estan sent avaluats per eines algorítmiques de contractació. I en 2021, la legislatura va esmenar la llei per a exigir que els ocupadors que usen tals eines informen dades demogràfiques sobre els candidats a un lloc de treball a una agència estatal per a ser analitzats a la recerca d'evidència de decisions esbiaixades.

Enguany, la legislatura de Colorado també va aprovar una llei , que entrarà en vigència en 2023, que crearà un marc per a avaluar els algorismes de subscripció d'assegurances i prohibirà l'ús d'algorismes discriminatoris en la indústria.

El web que permet rescatar dades personals d'internet

L'eina és gratuïta i t'ajuda a recuperar les dades que has anat introduint en Internet al llarg dels anys. A més, posseeix la funció d'eliminar la informació que desitges.

L'eina de la web Mine t'indica els llocs en els quals s'ha quedat registrada la teua informació, t'ajuda a descobrir la teua empremta digital en línia i a recuperar alguna dada personal. Mine només empra l'adreça de correu electrònic per a identificar el que sap Internet sobre l'usuari. Per a dur a terme el procés, s'ha d'iniciar sessió amb un compte de Google o Microsoft per a saber quantes empreses posseeixen informació sobre la individu. Així mateix, s'encarrega de classificar en diverses categories el tipus de dades guardades.

Una vegada conegudes les dades que circulen per internet, es pot sol·licitar a través de Mine que la informació de les bases de dades de xarxes socials (per exemple) que ja no gasten, s'eliminen. Per a això, s'ha de seleccionar l'opció 'Reclaim' (Reclamar) sobre el logo de l'empresa que aparega en la llista per a procedir al descart, encara que desafortunadament aquesta funció no està disponible per a totes.

D'altra banda, pots triar les 'accions ràpides' per a trobar els serveis que porten emmagatzemant dades personals des de fa temps i que no gastes, d'aquesta manera, s'identifiquen i eliminen ràpidament.

De moment (estiu 2021) la web Mine té un ús totalment gratuït, però ja han començat a pensar un model basat en subscripcions de pagament per a no haver de monetitzar amb les dades dels usuaris.

Volen assegurar que no estan en el negoci de processar, col·leccionar, compartir o vendre dades d'usuaris, ja que la seua base està elaborada sobre els principis de privacitat en línia amb les regles del Reglament General de Protecció de Dades.