23 mars 2018

L’art de mener les masses crédules : un jeu d’enfant

On ne s’embarrasse surtout pas de principes moraux!

Retour sur l’affaire Cambridge Analytica

Christopher Wylie, le lanceur d'alerte canadien qui a dévoilé le scandale Facebook-Cambridge Analytica, a affirmé en entrevue à CBC, mercredi soir, qu'il veut témoigner aux États-Unis et au Royaume-Uni à propos des menaces que représentent les médias sociaux sur les institutions démocratiques et les élections.
   Originaire de la Colombie-Britannique, cet analyste de données de 28 ans est le cerveau derrière la compagnie Cambridge Analytica et son système qui a permis à la campagne de Donald Trump de profiter d'informations de plus de 50 millions d'utilisateurs Facebook sans leur autorisation.
   À la suite des révélations de La Presse canadienne sur les liens contractuels au début de l'année 2016 entre le Parti libéral du Canada (PLC) et Christopher Wylie, le PLC a dévoilé davantage de détails mercredi concernant cette brève collaboration. Le parti soutient qu'«après avoir vu ce qui était offert», il a refusé d'aller de l'avant.
   Selon le communiqué publié par le PLC, la firme de Christophe Wylie, Eunoia Technologies, a effectué «un travail préliminaire» pour un montant de 100 000 $. Un contrat conclu «conformément aux règles d'approvisionnement de la Chambre des communes», précise-t-on. 
(Source : ICI Radio-Canada avec CBC)  

Que retenir du scandale Facebook / Cambridge Analytica | Cinq pistes de réponses
Par Yanik Dumont Baron, correspondant aux États-Unis pour ICI Radio-Canada/Info 

[...] 3- Ce sont vos émotions qui sont visées et manipulées
«Ça ne sert à rien de mener une campagne électorale en s’appuyant sur des faits, expliquait le directeur général de Cambridge Analytica. Il n’y a que les émotions qui comptent. » Ces commentaires de Mark Turnbull ont été captés par une caméra cachée de la chaîne britannique Channel 4.
   Avec ses ordinateurs, la firme prétendait mieux savoir ce qui choque ou effraie les électeurs que ces électeurs eux-mêmes. Ce sont les formules informatiques développées avec les données de Facebook qui lui auraient donné cet avantage.
   Ces craintes et ces émotions se sont retrouvées au cœur de la controversée campagne de Donald Trump, dont la peur des immigrants illégaux et des terroristes, un désir de rejeter ces élites qui auraient la vie plus facile, et ce fameux slogan «Crooked Hillary». Des messages aussi utilisés dans les efforts russes pour diviser les Américains durant la présidentielle. [...]
Article intégral :


Vous souvenez-vous des belles images du Sacré-Cœur accueillant tout le monde à bras ouverts? Cool. Sauf qu’au démarrage de son projet, “Zuck” a écrit sur IM Chat : “Yeah, so if you ever need info about anyone at Harvard, just ask. I have over 4,000 emails, pictures, addresses, SNS. People just submitted it. I don’t know why. They ’trust me’. Dumb fucks.” Autrement dit, il connaissait déjà les conséquences du piège tendu (1).

~~~
L’art de conduire sans conduire

Voulons-nous aller jusque-là? Évidemment, on ne nous demandera pas notre avis. Par ailleurs il est vrai les conducteurs humains sont fous braques, il suffit de consulter les statistiques d’accidents routiers mortels. Mais bon.

Où avait la tête l’opérateur (désigne le conducteur humain) derrière le volant de la voiture autonome? On dit qu’il a essayé de stopper le véhicule, de toute évidence sans succès... :  
– Un véhicule autonome Uber a percuté et tué une piétonne dimanche soir à Tempe, en Arizona, rapportent des médias locaux. Le véhicule Uber expérimental était en mode autonome au moment de l'accident mais un opérateur était derrière le volant, comme c'est la norme lors des essais. La femme traversait la rue hors des passages piétonniers vers 22 h quand elle été heurtée. Selon la station ABC 15 de Phoenix la victime se nommait Elaine Herzberg, 49 ans. Elle traversait la rue à pied, son vélo à ses côtés, lorsqu'elle a été happée par le VUS Volvo d'Uber, a indiqué la police, citée par ABC 15.


La confiance dans les IA et autres algorithmes
Julien Tarby | 5 octobre 2017 

Article intégral :

C’est qui le patron?
Jusqu’où peut-on faire confiance aux machines en matière de décisions, prévisions, surveillance, etc., domaines autrefois réservés aux humains?
   Elon Musk, le physicien Stephen Hawking ou encore Bill Gates, qu’on peut difficilement taxer de technophobie, ont fait chorus dernièrement à propos de l’IA, s’inquiétant du pouvoir et de l’influence future des superintelligences sur les humains. La crainte des algorithmes apprenants, des IA prenant des décisions à la place de hommes fait son apparition, même dans le sérail de la Silicon Valley. «En Europe, on s’inquiète de l’impact de l’IA sur l’emploi. La convergence de multiples technologies invasives et transformatrices de secteurs fait peur. La révolution agricole avait en son temps seulement transformé le domaine agricole…», déclare Catherine Simon, fondatrice et directrice d’Innorobo, salon de robotique, soulignant une certaine culture anti-humanoïde héritée des légendes du Golem sur le Vieux Continent. Au-delà de la crainte du chômage technologique, c’est bien la peur d’être concurrencé par une intelligence non humaine qui alimente le débat. [...]

Toujours des doutes sur l’impartialité
Ces «outils d’évaluation du risque» sont principalement utilisés pour estimer le risque de récidive des détenus et décider ou non de leur libération conditionnelle. Mais ils sont controversés car, bien qu’utilisés pour réduire les risques de discrimination, ils sont soupçonnés justement de reproduire certains biais humains... Les personnes de couleur noire ont deux fois plus de chances d’être labellisées personnes à haut risque par l’outil Compas... Est-ce à dire que les stéréotypes des programmateurs entrent aussi en jeu? [...]

Les algorithmes apprenants changent la donne
En France la start-up Predictice, fondée en janvier 2016, a numérisé près de 2,5 millions de décisions de la Cour de cassation, et utilise la puissance du Big Data pour calculer les probabilités de résolution de litiges, afin de rendre le système juridique plus transparent et prévisible. Au risque de dresser un palmarès des bons ou des mauvais tribunaux, comme on classe déjà les lycées ou les hôpitaux. Le champ des possibles semble désormais infini – qu’il soit positif avec une IA capable de diagnostiquer des cancers en quelques minutes, de matérialiser 36000 heures de travail d’un avocat en une seconde, de diminuer la facture d’électricité de Google de 40% – ou inquiétant : à Chicago, «grâce au traitement des données collectées, des appels téléphoniques et témoignages des personnes, nous définissons des micro-zones où nous pouvons prendre des décisions éclairées grâce aux algorithmes, quant à la présence policière par exemple», illustre Brett Goldstein, le Chief Data Officer de la ville qui cherche à anticiper l’acte malveillant. [...]  

Risque de dérive déshumanisante
Et si, plus que des suppléants, les machines devenaient les remplaçants des humains? [...] Quel médecin se passerait des renseignements fournis par les algorithmes, quel urbaniste, quel ingénieur, quel commerçant...? Pour autant que le numérique choisisse, juge, décide pour nous, puisse même gouverner, nous voilà dépossédés de nos droits et de nos facultés. Ne serait-ce pas un monde d’optimisation, de fluidification, de sécurisation extrême qui se préparerait sous l’influence de ces IA? Et pourtant il n’est pas certain qu’il fasse bon vivre dans un tel monde, «qui pourrait être déshumanisé si nous ne nous posons pas les bonnes questions», avertit Catherine Simon, fondatrice et directrice d’Innorobo, salon de robotique. Les machines paramétrées ne tiennent pas compte du contexte, une IA peut devenir raciste à force d’observer de tels propos sur le Net. Une étude de l’université d’Harvard montre que lorsqu’on saisit un nom à consonance afro-américaine, il y a des chances de voir apparaître, dans les premiers résultats, des sites qui proposent de consulter son casier judiciaire. [...] Ainsi Edward Snowden a révélé l’existence d’un algorithme qui décide si on est ou non citoyen américain : si on ne l’est pas, on peut être surveillé sans mandat!

Débats pour préparer une nouvelle société
Les décisions prises à partir de calculs algorithmiques, qui touchent à la démocratie, doivent être étroitement encadrées. «Souhaitons-nous que les libérations anticipées dépendent d’une machine? Si on le fait, c’est la porte ouverte à un monde déshumanisé, si on ne le fait pas, on laisse une marge d’erreur dommageable pour la société», campe Henri Verdier, «Chief Data Officer» de la France. Comme pour la bioéthique, il importe de sortir de la simple efficience et de s’inscrire dans le projet collectif. «On ne demande pas seulement à l’État d’être efficace; celui-ci a aussi un rôle à jouer dans le bien-être, la dignité des personnes, le vivre-ensemble...», ajoute Henri Verdier. [...]

Bon sens et garde-fous
«Et si, avant de souscrire à cette vision pessimiste d’asservissement, de restriction de la liberté, de perte de la dignité humaine, nous examinions la situation d’un peu plus près? Après tout, les algorithmes sont des créations de l’esprit humain. Ils sont ce que nous avons voulu qu’ils soient», insiste Serge Abiteboul, selon qui mieux connaître ces outils permettra de ne pas y être assujetti et de prendre les bonnes décisions. Le périmètre que nous leur laisserons dépendra de notre rapport aux technologies. «Je ne veux pas d’un robot américain qui me rend service tout en récoltant des données sur moi afin de mieux me vendre des choses, d’un robot chinois ou japonais trop mécanique et pas assez porté sur l’interaction avec l’humain», caricature Bruno Maisonnier, qui précise que «nous attendons que les machines se comportent mieux que le humains». [...] En période de bouleversement, les débordements peuvent survenir, à l’exemple de cette IA polémique développée à Stanford, soi-disant à même de déterminer l’orientation sexuelle des gens en analysant leur visage. [...]

Prospective Nos pensées mises à nu?
Dernièrement des chercheurs de Stanford ont créé un implant crânien qui permet à des personnes paralysées d’écrire huit mots par minute. Facebook vise la vitesse de 100 mots par minute «d’ici quelques années». Plus de 60 scientifiques et ingénieurs travaillent à inventer des capteurs non invasifs sur un casque ou un bandeau, au sein de Building 8, le nouveau labo de l’entreprise, entouré d’une culture du secret digne de celle qui entoure Google X poursuivant le même but. Les GAFA sont de la partie, pour à terme supprimer les écrans. Les assistants vocaux ont fait leur apparition, et les énergies sont désormais tournées vers l’élaboration de la commande par la pensée. Dès lors, la crainte qu’on puisse lire, détourner, voler nos informations cérébrales devient sensée! D’où l’appel des scientifiques Marcello Ienca, neuroéthicienne de l’université de Bâle, et de Roberto Andorno, avocat spécialisé dans les droits de l’homme de l’université de Zurich, demandant la reconnaissance de nouveaux droits au vu des avancées des neurotechnologies, afin de protéger nos pensées contre l’accès, la collecte, le partage et la manipulation des données du cerveau humain : premièrement le droit à la liberté cognitive, donc la possibilité d’utiliser ou de refuser la stimulation cérébrale et d’autres techniques pour modifier l’état mental; deuxièmement le droit à la confidentialité mentale, sachant que des scientifiques ont déjà réussi à reconstituer des extraits d’un film en scannant le cerveau de participants; troisièmement le droit à l’intégrité mentale pour anticiper les risques de «hacking», de prise de contrôle des appareils auxquels une personne est connectée ou de transmission de faux signaux vers le cerveau de l’utilisateur; quatrièmement le droit à la continuité psychologique car de telles technologies, notamment à des fins médicales, peuvent bouleverser la façon dont une personne se perçoit, s’identifie. Il s’agit de rester la même personne!



Here Are the First Hints of How Facebook Plans to Read Your Thoughts
Kristen V. Brown | 9/2/2017

Back in April, at Facebook’s annual developer conference, the company announced an ambitious – and very creepy! – plan to read its users’ minds. Facebook’s secretive hardware R&D division, Building 8, planned to develop its own “brain-to-computer interface” hardware that would allow a user to send words straight from her brain to a computer by merely thinking. But until now, we’ve heard scant details as to how exactly Facebook plans to accomplish this.
   “It sounds impossible,” Building 8 head Regina Dugan said at the time. “But it’s closer than you may realize.” Within “a few years,” she said, her researchers aimed to create a system that lets people type with their thoughts three times faster than you can type with a smartphone.
   Speaking at an MIT Media Lab conference on Monday, project head and neuroscientist Mark Chevillet dropped some more hints as to how this long-shot goal might be achieved.
   His team, he told the audience, plans to use non-invasive sensors to detect brain signals associated with a person thinking a word, then use an algorithm to figure out what the intended word was, according to a report of the conference by STAT News. Artificial intelligence will also likely figure in, helping to determine which of several possible words is actually the one a user was thinking of. And the team is leaning towards using a technology called diffuse optimal tomography to pull all of this off, which would work by shining near-infrared light onto brain tissue, and deducing patterns of neurons based on how the light scatters.
   Facebook is hardly the first to set out to make a working brain-computer interface. DARPA, which Dugan used to head, has invested heavily in brain-computer interface technologies to do things like treat mental illness, and restore memories to soldiers injured in war. More recently, Silicon Valley has been locked in an arms race to build a brain computer interface that allows us to communicate by thought. Earlier this year, Tesla and SpaceX head Elon Musk revealed a new machine-brain interface company, Neuralink. So did Silicon Valley entrepreneur Bryan Johnson (that one’s called Kernel) and Facebook alum Mary Louise Jepsen (Open Water).


(1) Cette citation est tirée du documentaire Terms and Conditions May Apply
qui analyse les clauses du contrat d’utilisation (qu’on accepte sans les lire) et la manière dont Facebook et Google nourrissent le FBI et la CIA en leur livrant les données personnelles des abonnés sur un plateau d’argent. Beaucoup d’informations intéressantes sur Mark Zuckerberg, on rapporte notamment une rencontre avec Robert S. Mueller...  
   Le minage de données sur Facebook et Google est de l’or pour les agents fédéraux. Le documentaire livre plusieurs témoignages de gens qui ont été importunés voire menottés, interrogés et tenus en garde à vue par des agents du FBI ou de la CIA, simplement pour une mauvaise blague ou un commentaire sur les réseaux sociaux contenant des mots catalogués «menaces» par les algorithmes.
   Par exemple, le documentariste présente à un utilisateur son relevé de recherche anonyme (l’utilisateur devient un numéro reconnu par les algorithmes) qui incluait des mots comme meurtre, comment tuer sa femme infidèle, photos de personnes mortes, autos accidentées, etc. Il aurait pu voir débarquer des agents du FBI chez lui pour possible tentative de meurtre. Voyez-vous, les algorithmes ne savent pas qu’il écrit pour l’émission télé Cold Case. «Je n’avais pas l’intention de tuer ma femme, je ne suis pas un meurtrier – je suis écrivain», déclare l’auteur.  
   Leigh Bryan (Twitter User – UK) allait passer une semaine à Los Angeles. À son départ de LA, il fut questionné, probablement à cause de son passeport irlandais, associé à des préjugés de terrorisme. Les douaniers ont scruté son téléphone portable. Par malheur, il avait écrit ce tweet à la blague : «@MelissaxWalton Free this week for a quick gossip/prep before I go and destroy America. X».Conséquemment, isolement à l’aéroport, menottes et prison au centre-ville pour interrogation : «What do you mean by destroying America?»
   Vito Lapinta, un jeune étudiant à Truman Middle School, fut visité par des policiers à son école pour avoir écrit : «Attention aux kamikazes bombers» – le jeune s’inquiétait pour la vie du président Obama!
   On appelle ça Intelligence Agency... à mon avis, si quelqu’un voulait détruire les États-Unis, ou s’en prendre au président, il ne l’annoncerait pas sur Twitter ou Facebook! Y’a que Trump qui menace pour vrai des dirigeants et leurs pays sur Twitter.
   Il m’est arrivé de faire des recherches sur des maladies dont je ne souffre pas pour des personnes âgées qui n’ont pas Internet; les algorithmes ont dû en déduire que j’étais très malade, voire à l’article de la mort!   
   Bref, du profilage à la con sous prétexte de sécurité, en voulez-vous en voilà! Complètement dingue. Un jour, l’Algo-Alphabet-Soup va être si épaisse qu’ils vont se noyer dedans.

Terms and Conditions May Apply
Cullen Hoback | 2013 | 1:20:02

Admit it – you don’t really read the endless pages of terms and conditions connected to every website you visit or phone call that you make do you? Of course not. But every day billion-dollar corporations are learning more about your interests, your friends and family, your finances, and your secrets – precisely because of this; and are not only selling the information to the highest bidder, but freely sharing it with the government. And you agreed to all of it. With plenty of recent real-world examples, Terms And Conditions May Apply covers just a little of what governments and corporations are legally taking from Internet users every day – turning the future of both privacy and civil liberties into serious question. From whistleblowers and investigative journalists to zombie fan clubs and Egyptian dissidents, this film demonstrates how all of us online have incrementally opted-in to a real-time surveillance state, click by click.

Aucun commentaire:

Publier un commentaire