Retour sur l’affaire Cambridge Analytica
Christopher
Wylie, le lanceur d'alerte canadien qui a dévoilé le scandale Facebook-Cambridge
Analytica, a affirmé en entrevue à CBC, mercredi soir, qu'il veut témoigner aux
États-Unis et au Royaume-Uni à propos des menaces que représentent les médias
sociaux sur les institutions démocratiques et les élections.
Originaire de la Colombie-Britannique, cet
analyste de données de 28 ans est le cerveau derrière la compagnie Cambridge
Analytica et son système qui a permis à la campagne de Donald Trump de profiter
d'informations de plus de 50 millions d'utilisateurs Facebook sans leur
autorisation.
À la suite des révélations de La Presse
canadienne sur les liens contractuels au
début de l'année 2016 entre le Parti
libéral du Canada (PLC) et
Christopher Wylie, le PLC a dévoilé davantage de détails mercredi
concernant cette brève collaboration.
Le parti soutient qu'«après avoir vu ce
qui était offert», il a refusé d'aller de l'avant.
Selon le communiqué publié par le PLC, la
firme de Christophe Wylie, Eunoia
Technologies, a effectué «un travail
préliminaire» pour un montant de 100 000 $. Un contrat conclu
«conformément aux règles d'approvisionnement de la Chambre des communes»,
précise-t-on.
(Source : ICI Radio-Canada avec CBC)
(Source : ICI Radio-Canada avec CBC)
Que retenir du scandale Facebook / Cambridge
Analytica | Cinq pistes de
réponses
Par Yanik
Dumont Baron, correspondant aux États-Unis pour ICI Radio-Canada/Info
[...] 3- Ce sont vos émotions qui sont visées et manipulées
[...] 3- Ce sont vos émotions qui sont visées et manipulées
«Ça ne
sert à rien de mener une campagne électorale en s’appuyant sur des faits,
expliquait le directeur général de Cambridge Analytica. Il n’y a que les
émotions qui comptent. » Ces commentaires de Mark Turnbull ont été captés par
une caméra cachée de la chaîne britannique Channel 4.
Avec ses ordinateurs, la firme prétendait mieux savoir ce qui choque ou effraie les électeurs
que ces électeurs eux-mêmes. Ce sont les formules informatiques développées
avec les données de Facebook qui lui auraient donné cet avantage.
Ces craintes et ces émotions se sont
retrouvées au cœur de la controversée campagne de Donald Trump, dont la peur
des immigrants illégaux et des terroristes, un désir de rejeter ces élites qui
auraient la vie plus facile, et ce fameux slogan «Crooked Hillary». Des
messages aussi utilisés dans les efforts russes pour diviser les Américains
durant la présidentielle. [...]
Article
intégral :
Vous souvenez-vous des belles images du Sacré-Cœur accueillant tout le monde à bras ouverts? Cool. Sauf qu’au démarrage de son projet, “Zuck” a écrit sur IM Chat : “Yeah, so if you ever need info about anyone at Harvard, just ask. I have over 4,000 emails, pictures, addresses, SNS. People just submitted it. I don’t know why. They ’trust me’. Dumb fucks.” Autrement dit, il connaissait déjà les conséquences du piège tendu (1).
~~~
L’art de conduire sans conduire
Voulons-nous
aller jusque-là? Évidemment, on ne nous demandera pas notre avis. Par ailleurs
il est vrai les conducteurs humains sont fous braques, il suffit de consulter
les statistiques d’accidents routiers mortels. Mais bon.
Où avait
la tête l’opérateur (désigne le conducteur
humain) derrière le volant de la
voiture autonome? On dit qu’il a essayé de stopper le véhicule, de toute
évidence sans succès... :
– Un
véhicule autonome Uber a percuté et tué une piétonne dimanche soir à Tempe, en
Arizona, rapportent des médias locaux. Le véhicule Uber expérimental était en
mode autonome au moment de l'accident mais un opérateur était derrière le
volant, comme c'est la norme lors des essais. La femme traversait la rue hors
des passages piétonniers vers 22 h quand elle été heurtée. Selon la station ABC
15 de Phoenix la victime se nommait Elaine Herzberg, 49 ans. Elle traversait la
rue à pied, son vélo à ses côtés, lorsqu'elle a été happée par le VUS Volvo
d'Uber, a indiqué la police, citée par ABC 15.
La confiance dans les IA et autres
algorithmes
Julien
Tarby | 5 octobre 2017
Article
intégral :
C’est qui le patron?
Jusqu’où
peut-on faire confiance aux machines en matière de décisions, prévisions,
surveillance, etc., domaines autrefois réservés aux humains?
Elon Musk, le physicien Stephen Hawking ou
encore Bill Gates, qu’on peut difficilement taxer de technophobie, ont fait
chorus dernièrement à propos de l’IA, s’inquiétant du pouvoir et de l’influence
future des superintelligences sur les humains. La crainte des algorithmes
apprenants, des IA prenant des décisions à la place de hommes fait son
apparition, même dans le sérail de la Silicon Valley. «En Europe, on s’inquiète
de l’impact de l’IA sur l’emploi. La convergence de multiples technologies
invasives et transformatrices de secteurs fait peur. La révolution agricole
avait en son temps seulement transformé le domaine agricole…», déclare
Catherine Simon, fondatrice et directrice d’Innorobo, salon de robotique,
soulignant une certaine culture anti-humanoïde héritée des légendes du Golem
sur le Vieux Continent. Au-delà de la crainte du chômage technologique, c’est
bien la peur d’être concurrencé par une intelligence non humaine qui alimente
le débat. [...]
Toujours des doutes sur l’impartialité
Ces
«outils d’évaluation du risque» sont principalement utilisés pour estimer le
risque de récidive des détenus et décider ou non de leur libération
conditionnelle. Mais ils sont controversés car, bien qu’utilisés pour réduire
les risques de discrimination, ils sont soupçonnés justement de reproduire
certains biais humains... Les personnes de couleur noire ont deux fois plus de
chances d’être labellisées personnes à haut risque par l’outil Compas... Est-ce
à dire que les stéréotypes des programmateurs entrent aussi en jeu? [...]
Les algorithmes apprenants changent la donne
En France
la start-up Predictice, fondée en janvier 2016, a numérisé près de 2,5 millions
de décisions de la Cour de cassation, et utilise la puissance du Big Data pour
calculer les probabilités de résolution de litiges, afin de rendre le système
juridique plus transparent et prévisible. Au risque de dresser un palmarès des
bons ou des mauvais tribunaux, comme on classe déjà les lycées ou les hôpitaux.
Le champ des possibles semble désormais infini – qu’il soit positif avec une IA
capable de diagnostiquer des cancers en quelques minutes, de matérialiser 36000
heures de travail d’un avocat en une seconde, de diminuer la facture
d’électricité de Google de 40% – ou inquiétant : à Chicago, «grâce au
traitement des données collectées, des appels téléphoniques et témoignages des
personnes, nous définissons des micro-zones où nous pouvons prendre des
décisions éclairées grâce aux algorithmes, quant à la présence policière par exemple»,
illustre Brett Goldstein, le Chief Data
Officer de la ville qui cherche à anticiper l’acte malveillant. [...]
Risque de dérive déshumanisante
Et si,
plus que des suppléants, les machines devenaient les remplaçants des humains? [...]
Quel médecin se passerait des renseignements fournis par les algorithmes, quel
urbaniste, quel ingénieur, quel commerçant...? Pour autant que le numérique
choisisse, juge, décide pour nous, puisse même gouverner, nous voilà dépossédés
de nos droits et de nos facultés. Ne serait-ce pas un monde d’optimisation, de
fluidification, de sécurisation extrême qui se préparerait sous l’influence de
ces IA? Et pourtant il n’est pas certain qu’il fasse bon vivre dans un tel monde,
«qui pourrait être déshumanisé si nous ne nous posons pas les bonnes questions»,
avertit Catherine Simon, fondatrice et directrice d’Innorobo, salon de
robotique. Les machines paramétrées ne
tiennent pas compte du contexte, une IA peut devenir raciste à force d’observer
de tels propos sur le Net. Une étude de l’université d’Harvard montre que
lorsqu’on saisit un nom à consonance afro-américaine, il y a des chances de voir
apparaître, dans les premiers résultats, des sites qui proposent de consulter
son casier judiciaire. [...] Ainsi Edward Snowden a révélé l’existence d’un
algorithme qui décide si on est ou non citoyen américain : si on ne l’est pas,
on peut être surveillé sans mandat!
Débats pour préparer une nouvelle société
Les
décisions prises à partir de calculs algorithmiques, qui touchent à la
démocratie, doivent être étroitement encadrées. «Souhaitons-nous que les
libérations anticipées dépendent d’une machine? Si on le fait, c’est la porte
ouverte à un monde déshumanisé, si on ne le fait pas, on laisse une marge d’erreur
dommageable pour la société», campe Henri Verdier, «Chief Data Officer» de la France. Comme pour la bioéthique, il
importe de sortir de la simple efficience et de s’inscrire dans le projet
collectif. «On ne demande pas seulement à l’État d’être efficace; celui-ci a
aussi un rôle à jouer dans le bien-être, la dignité des personnes, le
vivre-ensemble...», ajoute Henri Verdier. [...]
Bon sens et garde-fous
«Et si,
avant de souscrire à cette vision pessimiste d’asservissement, de restriction
de la liberté, de perte de la dignité humaine, nous examinions la situation
d’un peu plus près? Après tout, les algorithmes sont des créations de l’esprit
humain. Ils sont ce que nous avons voulu qu’ils soient», insiste Serge
Abiteboul, selon qui mieux connaître ces
outils permettra de ne pas y être assujetti et de prendre les bonnes décisions.
Le périmètre que nous leur laisserons dépendra de notre rapport aux
technologies. «Je ne veux pas d’un robot américain qui me rend service tout en
récoltant des données sur moi afin de mieux me vendre des choses, d’un robot
chinois ou japonais trop mécanique et pas assez porté sur l’interaction avec
l’humain», caricature Bruno Maisonnier, qui précise que «nous attendons que les
machines se comportent mieux que le humains». [...] En période de
bouleversement, les débordements peuvent survenir, à l’exemple de cette IA
polémique développée à Stanford, soi-disant à même de déterminer l’orientation
sexuelle des gens en analysant leur visage. [...]
Prospective – Nos
pensées mises à nu?
Dernièrement
des chercheurs de Stanford ont créé un implant crânien qui permet à des
personnes paralysées d’écrire huit mots par minute. Facebook vise la vitesse de
100 mots par minute «d’ici quelques années». Plus de 60 scientifiques et
ingénieurs travaillent à inventer des capteurs non invasifs sur un casque ou un
bandeau, au sein de Building 8, le nouveau labo de l’entreprise, entouré d’une
culture du secret digne de celle qui entoure Google X poursuivant le même but.
Les GAFA sont de la partie, pour à terme supprimer les écrans. Les assistants
vocaux ont fait leur apparition, et les
énergies sont désormais tournées vers l’élaboration de la commande par la
pensée. Dès lors, la crainte qu’on
puisse lire, détourner, voler nos informations cérébrales devient sensée!
D’où l’appel des scientifiques
Marcello Ienca, neuroéthicienne de l’université de Bâle, et de Roberto Andorno,
avocat spécialisé dans les droits de l’homme de l’université de Zurich, demandant la reconnaissance de nouveaux
droits au vu des avancées des neurotechnologies, afin de protéger nos pensées
contre l’accès, la collecte, le partage et la manipulation des données du
cerveau humain : premièrement le droit à la liberté cognitive, donc
la possibilité d’utiliser ou de refuser la stimulation cérébrale et d’autres
techniques pour modifier l’état mental; deuxièmement le droit à la confidentialité mentale, sachant que des
scientifiques ont déjà réussi à reconstituer des extraits d’un film en scannant
le cerveau de participants; troisièmement le
droit à l’intégrité mentale pour anticiper les risques de «hacking», de
prise de contrôle des appareils auxquels une personne est connectée ou de
transmission de faux signaux vers le cerveau de l’utilisateur; quatrièmement le droit à la continuité psychologique car
de telles technologies, notamment à des fins médicales, peuvent bouleverser la
façon dont une personne se perçoit, s’identifie. Il s’agit de rester la même
personne!
Here Are
the First Hints of How Facebook Plans to Read Your Thoughts
Kristen V. Brown | 9/2/2017
Back in April, at Facebook’s annual developer
conference, the company announced an ambitious – and very creepy! – plan to
read its users’ minds. Facebook’s secretive hardware R&D division, Building
8, planned to develop its own “brain-to-computer interface” hardware that would
allow a user to send words straight from her brain to a computer by merely thinking.
But until now, we’ve heard scant details as to how exactly Facebook plans to
accomplish this.
“It sounds
impossible,” Building 8 head Regina Dugan said at the time. “But it’s closer
than you may realize.” Within “a few years,” she said, her researchers aimed to
create a system that lets people type with their thoughts three times faster
than you can type with a smartphone.
Speaking at
an MIT Media Lab conference on Monday, project head and neuroscientist Mark
Chevillet dropped some more hints as to how this long-shot goal might be
achieved.
His team, he
told the audience, plans to use non-invasive sensors to detect brain signals
associated with a person thinking a word, then use an algorithm to figure out
what the intended word was, according to a report of the conference by STAT
News. Artificial intelligence will also likely figure in, helping to determine
which of several possible words is actually the one a user was thinking of. And
the team is leaning towards using a technology called diffuse optimal
tomography to pull all of this off, which would work by shining near-infrared light onto brain tissue, and deducing patterns of
neurons based on how the light scatters.
Facebook is
hardly the first to set out to make a working brain-computer interface. DARPA, which Dugan used to head, has
invested heavily in brain-computer interface technologies to do things like
treat mental illness, and restore memories to soldiers injured in war. More
recently, Silicon Valley has been locked in an arms race to build a brain
computer interface that allows us to communicate by thought. Earlier this year,
Tesla and SpaceX head Elon Musk revealed a new machine-brain interface company,
Neuralink. So did Silicon Valley entrepreneur Bryan Johnson (that one’s called
Kernel) and Facebook alum Mary Louise Jepsen (Open Water).
(1) Cette
citation est tirée du documentaire Terms
and Conditions May Apply
qui
analyse les clauses du contrat d’utilisation (qu’on accepte sans les lire) et la
manière dont Facebook et Google nourrissent le FBI et la CIA en leur livrant
les données personnelles des abonnés sur un plateau d’argent. Beaucoup d’informations
intéressantes sur Mark Zuckerberg, on rapporte notamment une rencontre avec
Robert S. Mueller...
Le minage de données sur Facebook et Google
est de l’or pour les agents fédéraux. Le documentaire livre plusieurs
témoignages de gens qui ont été importunés voire menottés, interrogés et tenus
en garde à vue par des agents du FBI ou de la CIA, simplement pour une mauvaise
blague ou un commentaire sur les réseaux sociaux contenant des mots catalogués «menaces»
par les algorithmes.
Par exemple, le documentariste présente à un
utilisateur son relevé de recherche anonyme
(l’utilisateur devient un numéro reconnu par les algorithmes) qui incluait des
mots comme meurtre, comment tuer sa femme infidèle, photos de personnes mortes, autos
accidentées, etc. Il aurait pu voir débarquer des agents du FBI chez lui pour
possible tentative de meurtre. Voyez-vous, les algorithmes ne savent pas qu’il
écrit pour l’émission télé Cold Case.
«Je n’avais pas l’intention de tuer ma femme, je ne suis pas un meurtrier – je
suis écrivain», déclare l’auteur.
Leigh Bryan (Twitter User – UK) allait passer
une semaine à Los Angeles. À son départ de LA, il fut questionné, probablement
à cause de son passeport irlandais, associé à des préjugés de terrorisme. Les
douaniers ont scruté son téléphone portable. Par malheur, il avait
écrit ce tweet à la blague : «@MelissaxWalton Free this week for a quick
gossip/prep before I go and destroy America. X».Conséquemment, isolement à l’aéroport, menottes et prison au
centre-ville pour interrogation : «What do you mean by destroying America?»
Vito Lapinta, un jeune étudiant à Truman
Middle School, fut visité par des policiers à son école pour avoir écrit : «Attention
aux kamikazes bombers» – le jeune s’inquiétait pour la vie du président Obama!
On appelle ça Intelligence Agency... à mon avis, si quelqu’un voulait détruire
les États-Unis, ou s’en prendre au président, il ne l’annoncerait pas sur
Twitter ou Facebook! Y’a que Trump qui menace pour vrai des dirigeants et leurs
pays sur Twitter.
Il m’est arrivé de faire des recherches sur
des maladies dont je ne souffre pas pour des personnes âgées qui n’ont pas
Internet; les algorithmes ont dû en déduire que j’étais très malade, voire à l’article
de la mort!
Bref, du profilage à la con sous prétexte de
sécurité, en voulez-vous en voilà! Complètement dingue. Un jour, l’Algo-Alphabet-Soup
va être si épaisse qu’ils vont se noyer dedans.
Terms and
Conditions May Apply
Cullen Hoback | 2013 | 1:20:02
Admit it – you don’t really read the endless pages of
terms and conditions connected to every website you visit or phone call that
you make do you? Of course not. But every day billion-dollar corporations are
learning more about your interests, your friends and family, your finances, and
your secrets – precisely because of this; and are not only selling the information to the highest bidder, but freely
sharing it with the government. And you agreed to all of it. With plenty of
recent real-world examples, Terms And
Conditions May Apply covers just a little of what governments and
corporations are legally taking from Internet users every day – turning the
future of both privacy and civil liberties into serious question. From
whistleblowers and investigative journalists to zombie fan clubs and Egyptian
dissidents, this film demonstrates how
all of us online have incrementally opted-in to a real-time surveillance state,
click by click.
Aucun commentaire:
Publier un commentaire