intelligence artificielle

Intelligence artificielle, un bricolage de haut niveau

Publié le

Disponible chez Amazon
Canada | Europe | UK | US

Le sociologue Pierre Fraser et le philosophe Georges Vignaux proposent ici une analyse qui veut remettre en perspective ce qu’est l’intelligence artificielle, à savoir un simple bricolage informatique de haut niveau, et rien d’autre.

Pour les auteurs, l’intelligence artificielle est un bricolage informatique de plusieurs degrés supérieurs à tout ce qui a été conçu à ce jour. De là une hypothèse : certaines tendances et certaines forces sont à l’œuvre qui complexifient de plus en plus chaque nouvelle génération de technologies au point de les rendre quasi incompréhensibles en termes de comportement, d’interactivité et d’interconnexion ; les algorithmes liés à l’intelligence artificielle augmenteront de plusieurs degrés ce niveau d’incompréhension.

En fait, plus le bricolage informatique est sophistiqué plus il est la résultante de systèmes informatiques eux-mêmes sophistiqués et hautement complexes. La complexité totale qui émerge de toutes ces complexités est ce qui peut être décrit comme une complexité massive de laquelle peut émerger des anomalies tout à fait inattendues, et plus la complexité est massive, plus elle est sujette à des anomalies.

De là, il est légitime de poser toute une série de questions. Par exemple, dans une voiture autonome ou dans les systèmes d’avionique, quel est le degré de fiabilité du logiciel de chacun des composants ? Quel est le degré de fiabilité du système central d’intelligence artificielle qui collecte les données de tous les capteurs embarqués ? Et ainsi de suite, alors que l’intelligence artificielle prétend régler plusieurs problèmes des technologies précédentes.

La gouvernance par les médias sociaux

Publié le Mis à jour le

Si on se réfère aux quatre articles précédents articles précédents (Le défi des technologies numériques, S’adapter à la perturbation numérique, Technologies et perspectives d’avenir, Imaginaires sociaux et contre-mondes numériques), il va sans dire que des politiques sont nécessaires pour améliorer les compétences, remédier aux défaillances du marché, limiter les dommages et réduire les inégalités, mais les questions plus vastes soulevées par l’empiètement de l’IA et de l’apprentissage machine ne doivent pas être laissées aux entreprises et au marché, à l’État ou aux acteurs de la société civile, seuls.

Le plus grand défi consiste à assurer un dialogue multipartite solide qui permette d’examiner les « notions et images normatives plus profondes » qui soutiennent la croyance répandue que l’orientation générale du changement technologique est, en fait, compatible avec l’autonomie et la prospérité humaines. Il est important de reconnaître que l’orientation du changement technologique n’était pas inévitable historiquement et n’est pas inévitable maintenant.

Le discours sur l’inévitabilité technologique et l’adaptation pour assurer la compétitivité économique de l’industrie est profondément enraciné, tout comme l’opinion selon laquelle on peut compter sur la société civile, sans l’aide des institutions officielles, pour obtenir des résultats conformes à l’équité sociale.

Si la « création destructrice » est effectivement le résultat probable de la voie de l’innovation technologique numérique, il faut agir avant qu’il ne soit trop tard et qu’il ne soit plus possible de revenir en arrière parce que l’autonomie humaine aura été compromise.

Il est donc impératif de révéler les normes et la dynamique du pouvoir de la gouvernance par les médias sociaux ou de la gouvernance par l’infrastructure technologique, mais cela doit s’accompagner d’une attention beaucoup plus grande à la promotion active d’imaginaires sociaux compatibles avec le maintien des êtres humains dans une position faisant autorité et responsable en matière de technologie.

© Texte, Robin Mansell, London School of Economics and Political Science, London, UK
© Photo entête, Medium

Imaginaires sociaux et contre-mondes numériques

Publié le Mis à jour le

Ce que nous avons vu dans les articles précédents (Le défi des technologies numériques, S’adapter à la perturbation numérique, Technologies et perspectives d’avenir) exige que nous réfléchissions au-delà des stratégies de gestion à court terme et des modèles d’affaires pour considérer les notions et images normatives plus profondes qui sont largement répandues sur la façon dont une société donnée est, et devrait être, organisée. La façon dont les gens donnent un sens au monde dans lequel ils vivent, les valeurs qu’ils privilégient et les voies qu’ils préfèrent vers l’avenir sont des déterminants cruciaux des résultats à long terme.

Comme le démontre le philosophe Charles Taylor (celui-là même qui, au Québec, a rédigé le rapport Bouchard-Taylor sur la laïcité de l’État pour ensuite récuser ses propres conclusions neuf ans plus tard), ces notions et ces images peuvent être traitées comme des imaginaires sociaux qui influencent les pratiques collectives dans une société. Ce sont ces imaginaires qui donnent lieu aux histoires que les gens se racontent sur les développements technologiques probables et leurs conséquences. Taylor note que, historiquement, il y a toujours eu des imaginaires sociaux concurrents qui revendiquent la façon dont l’autorité et la responsabilité devraient être constituées dans la société.

En cet ère technologique, l’imaginaire social dominant sur le rôle des systèmes numériques dans la société privilégie l’innovation rapide et la diffusion de technologies qui présentent un certain degré d’intelligence émotionnelle. Cet imaginaire encourage le traitement et l’interprétation de quantités de plus en plus grandes d’information numérique et l’augmentation massive de la capacité technologique de produire, traiter, distribuer et stocker l’information. Dans cet imaginaire, il est nécessaire de s’adapter aux chocs de l’ordre social, économique, culturel et politique résultant de l’innovation technologique rapide.

L’hypothèse suggère qu’une « autorité supérieure », par exemple, l’État, le secteur privé ou le client, a le contrôle sur les résultats du processus d’innovation. Cet imaginaire social sous-tend les visions programmatiques de la recherche scientifique, de l’ingénierie et des mathématiques qui se concentrent sur les systèmes de rétroaction et l’automatisation comme systèmes de contrôle pour les applications numériques militaires et non militaires. L’efficacité des marchés et les choix individuels sont censés guider les changements dans le système numérique.

À cet effet, l’interaction de l’imaginaire social dominant avec les manifestations de la puissance des entreprises de plates-formes numériques qui opèrent sur des marchés très concentrés signifie que ces entreprises jouent le rôle d’intermédiaires capables de bloquer ou de filtrer l’information numérique et de traiter les données clients. Leur solidité financière leur confère un quasi-monopole, un pouvoir de décision considérable et la capacité d’influer sur leur réglementation et sur la façon dont ils sont réglementés. Selon cet imaginaire, des facteurs parfois résiduels faussent la trajectoire du changement de manière inattendue, mais la possibilité que le progrès technologique puisse être nocif pour les êtres humains ne fait pas partie de cet imaginaire.

Dans un imaginaire social moins important, mais toujours très influent, l’« autorité supérieure » est supposée être l’autorité collaborative, non hiérarchique ou hétéroarchique, organisée par des réseaux décentralisés d’acteurs. Cet imaginaire s’inspire d’un engagement en faveur de systèmes numériques ouverts, d’un accès ouvert à l’information, de restrictions minimales à la liberté d’expression et à la préservation de la vie privée, mais il dépend aussi, néanmoins, de systèmes informatiques et d’applications d’IA de plus en plus complexes. L’imaginaire social qui sous-tend cette vision de la voie de l’innovation technologique est généralement considéré comme favorisant la production basée sur le commun, la transparence et la capacité d’autorité humaine dans le monde numérique.

Dans ces deux imaginaires sociaux, cependant, l’« autorité supérieure » imaginée (ou réelle) est un être humain et, à cet égard, la voie de l’innovation technologique n’est pas, ou très rarement seulement, remise en question. Dans le premier imaginaire social, les propriétés émergentes d’un système numérique complexe devraient produire des résultats positifs pour les individus médiés par le marché et, parfois, par l’intervention gouvernementale. Dans le second, ce sont les activités génératrices des concepteurs de technologies et des participants en ligne qui devraient permettre d’atteindre ces résultats. Dans les deux cas, le rôle du participant engagé dans le monde numérique est de rechercher, d’étiqueter et d’examiner les données, une  » autorité supérieure « , les mécanismes de gouvernance de l’entreprise, de l’État et/ou de la société civile, étant chargée de prendre des mesures en fonction des résultats de l’analyse des données.

On suppose donc que ces décisions s’aligneront sur les intérêts en matière de gains commerciaux et sur l’équité et la justice, du moins à long terme. Les imaginaires sociaux dominants et subordonnés sont tous deux issus d’un environnement numérique qui accroît les relations homme-machine, machine-machine et homme-homme, dans chaque cas, avec des risques gérables pour les êtres humains.
Façonner la voie numérique

L’élargissement de l’éventail des avenirs que l’on peut imaginer exige un programme proactif en vue d’orienter la voie de l’innovation en matière de technologie numérique. Les imaginaires sociaux dominants, qui supposent une trajectoire « naturelle » d’innovation, sont remis en question. Luc Soete, par exemple, se demande s’il se pourrait que l’innovation ne soit pas toujours bonne l’individu et suggère qu’au lieu d’un processus principalement bénéfique de destruction créative schumpétérienne reposant sur un processus continu d’innovation technologique, à l’époque contemporaine, nous assistons à une période de « création destructive ».

Les mécanismes de gouvernance influent sur les types de sociétés qui émergent ; ils éclairent les perspectives sur les principes fondamentaux de la vie, sur la qualité de vie à laquelle les gens devraient avoir droit et sur la question de savoir si, dans une certaine mesure, les sociétés sont inclusives, respectueuses et habilitantes pour tous. Les algorithmes peuvent être compris comme gouvernant parce qu’ils structurent la compréhension des possibilités futures. Lorsque les résultats qu’ils produisent sont traités comme s’ils étaient certains, la capacité de penser à des mondes alternatifs et à des voies de développement technologique est découragée.

Lorsque l’on s’appuie principalement sur l’imaginaire social dominant, les individus sont supposés être soumis aux choix des grands opérateurs de plateformes numériques ou de l’Etat. Lorsque nous nous appuyons sur le deuxième imaginaire social et le pouvoir génératif des communautés en ligne distribuées à l’échelle mondiale, rien ne garantit que les résultats seront équitables ou inoffensifs car les mouvements en ligne ne sont pas toujours bénins. Dans les deux cas, on a supposé jusqu’à tout récemment que l’homme était l' » autorité supérieure  » et qu’il conservait le contrôle des systèmes informatiques.

Dans l’environnement numérique d’aujourd’hui, la plupart du temps, lorsque l’économie ou la politique est comprise à travers la lentille algorithmique des visualisations des cartes, des scores et des indicateurs de risque, c’est encore généralement un être humain ou un groupe d’individus qui prend la décision d’agir. La distribution asymétrique du pouvoir signifie que ceux qui ont le pouvoir d’agir sont le plus souvent les militaires, une autre branche de l’État ou de grandes entreprises, mais ils peuvent aussi inclure des groupes militants en ligne organisés par des mouvements de protestation sociale.

De concert avec les concepteurs de technologies qui intègrent des valeurs dans le système numérique, ces acteurs font des choix quant à la voie à suivre vers notre futur environnement numérique. Pourtant, si la quantification de tout signifie que les sociétés risquent de devenir humainement ingouvernables, alors la notion que la quantification de la vie, rendue possible par des systèmes et des applications d’IA sophistiqués, est synonyme de l’intérêt supérieur des êtres humains doit être réévaluée. D’autres résultats peuvent être possibles, mais seulement si un autre imaginaire social commence à prendre de l’importance et à façonner les choix en matière d’équité et de justice dans le présent, et si l’« autorité supérieure » doit continuer à être des êtres humains.

Historiquement, la voie de l’innovation technologique numérique n’a pas été linéaire, bien qu’on suppose parfois qu’elle ait été une progression « naturelle » de l’analogique au numérique, des industries segmentées spécialisées dans les télécommunications ou l’informatique aux industries et technologies convergentes qui comprennent les plateformes et services numériques actuels. Organisées en réseaux non transparents de technologies modulaires et de liens hiérarchiques, horizontaux et diagonaux complexes, les applications numériques, y compris les robots, appuyées par des algorithmes et l’apprentissage machine, devraient permettre aux dirigeants de l’industrie et du gouvernement d’augmenter les niveaux de revenu. Certains militants de la société civile s’attendent à ce que ces demandes soutiennent des mouvements de protestation couronnés de succès. Mais encore une fois, leurs aspirations sont fondées sur le mouvement le long d’une voie d’innovation technologique singulière.

L’idée que les technologies numériques apporteront des solutions aux problèmes de société est un thème commun. Lorsque l’accent est mis sur la diffusion des innovations et sur la dynamique concurrentielle des plates-formes et services numériques, les effets de second ordre et d’ordre ultérieur qui engendrent des incertitudes et des résultats difficiles à prévoir ou à modéliser facilement donnent l’impression que la seule alternative est d’exploiter la voie technologique qui semble la plus susceptible de générer des gains économiques à court et moyen terme.

L’innovation et la destruction créatrice ont toujours été les caractéristiques de l’économie qui génèrent la croissance économique, des gains de productivité et une amélioration du bien-être social. Il en résulte une attitude d’« attentisme », dans laquelle les acteurs humains s’adaptent aux changements technologiques perturbateurs à court terme. On s’attend à ce que le marché, l’État et/ou la société civile apportent des réponses améliorées aux perturbations et à ce que l’effet ultérieur des changements technologiques soit positif. Tous les ajustements nécessaires sont considérés comme étant largement spontanés, ce qui conduit à affirmer que nous savons que des gains de productivité et d’efficacité, de nouveaux services et de nouveaux emplois se profilent à l’horizon.

En ce sens, l’orientation politique dominante consiste donc à stimuler la compétitivité économique en partant du principe que, si un pays n’atteint pas une position dominante dans les domaines émergents de l’innovation technologique comme l’apprentissage machine et l’IA, un autre pays le fera. Il en résulte que l’accent est mis sur les politiques ex post qui visent à influencer les stratégies de l’entreprise une fois que les technologies ont été mises sur le marché.

Certains acteurs du gouvernement, de l’industrie et de la société civile commencent à reconnaître que la quatrième révolution industrielle modifiera fondamentalement la façon dont nous vivons, travaillons et interagissons les uns avec les autres à la suite de l’omniprésence des capteurs numériques, de l’IA et de l’apprentissage machine, et de leur combinaison avec le monde physique et biologique.

Le changement se produit à grande vitesse, voire à une vitesse transformative, et il est difficile aux citoyens, aux fonctionnaires et aux dirigeants d’entreprises de comprendre des systèmes numériques avancés. court et moyen terme, les applications de la technologie numérique ont un grand potentiel pour s’attaquer aux inégalités sociales et économiques et aux défis socio-techniques mondiaux et il est tout à fait raisonnable pour les acteurs de chercher à maximiser les avantages de l’innovation technologique.

Toutefois, les imaginaires sociaux dominants sont persistants et encouragent l’idée qu’il suffit de connecter les non-connectés pour créer des sociétés de l’information inclusives, tout en renforçant la culture numérique technique et les interventions marginales sur le marché pour faire face aux menaces, pour y répondre. Même dans le contexte des deux imaginaires sociaux les plus en vue, les adultes et les enfants ont besoin d’un large éventail de littératies numériques s’ils veulent apprendre à naviguer efficacement dans l’environnement numérique.

En outre, si la trajectoire technologique à long terme s’oriente vers un monde numérique incompatible avec le maintien des droits et libertés que de nombreux pays apprécient, y compris la démocratie responsable, il est essentiel de promouvoir le débat sur les contre-mondes ou les voies alternatives et les changements qui seraient nécessaires pour les atteindre.

Dans la mesure où plus il y a d’avantages numériques, moins il y a de possibilités pour les êtres humains d’exercer un contrôle et une autorité dans leur vie, il est essentiel de remettre en question l’idée que l’adaptation à ce qui est produit en laboratoire est la seule option. Les imaginaires sociaux dominants rendent difficile la conception de voies technologiques numériques alternatives, mais ce n’est pas impossible.

Les progrès de l’intelligence artificielle et des applications de l’apprentissage machine déclenchent des consultations sur des cadres éthiques qui traitent de questions de dignité humaine, de libertés, d’égalité, de solidarité et de justice. Dans ces forums, des questions sont constamment soulevées sur la manière de garantir que les systèmes intelligents ne seront pas nocifs pour l’homme, mais la position politique reste fortement orientée vers une intervention a posteriori.

© Texte, Robin Mansell, London School of Economics and Political Science, London, UK
© Photo entête, Medium

Technologies de prochaine génération et perspectives d’avenir

Publié le Mis à jour le

Avec les progrès de la puissance de calcul et la généralisation des applications numériques, pour tous ceux qui sont inclus dans le processus et qui acquièrent des compétences appropriées au monde numérique, leur inclusion est problématique si elle se traduit aussi par une perte de contrôle sur leur vie. Depuis de nombreuses années, l’objectif dans le domaine de l’intelligence artificielle est d’automatiser le renseignement humain.

Les exemples contemporains de technologies  intelligentes sont le soldat renforcé et le consommateur qui a accès au numérique. L’engagement est de coder des algorithmes qui « raisonnent » sur la fiabilité et l’honnêteté. L’automatisation de la vie quotidienne, sous la forme de l’Internet des objets ou de la robotique avancée, est souvent décrite dans la littérature populaire comme un progrès qui signifie la promesse d’une vie meilleure pour tous, et finalement, une réduction des inégalités sociales et économiques. En est-il vraiment ainsi ? La question se pose.

Les moyens actuels de gouvernance de l’innovation dans le domaine des technologies numériques ne sont pas bien placés pour s’attaquer aux questions fondamentales concernant les types de sociétés de l’information qui sont souhaitables, contrairement à ceux qui pourraient l’être. Les discussions sur un avenir meilleur privilégient généralement les attentes concernant les avantages de la voie actuelle de l’innovation technologique numérique. La valeur économique potentielle de la réalisation de ces attentes le plus tôt possible signifie que les politiques visant à atténuer les problèmes liés à la voie actuelle ne sont introduites qu’avec prudence et après que des preuves de dommages ont été recueillies.

Les mesures susceptibles de remédier aux inégalités sociales et économiques et à la perte potentielle d’autorité humaine sur les systèmes avancés de traitement de l’information numérique sont souvent considérées comme nuisibles au rythme de l’innovation et au marché. Néanmoins, il est crucial de se demander si le cheminement vers des systèmes technologiques qui transforment les relations machine-homme est compatible avec l’épanouissement de l’être humain dans le sens où les gens devraient pouvoir s’engager dans « un mode de vie actif » ; un mode de vie où les valeurs humaines comme l’altruisme, la solidarité et la dignité sont respectées. Si l’on veut garantir ce type de vie à long terme, il faut éviter la voie vers des sociétés de l’information algorithmiques ou calculatrices dont l’autorité humaine serait réduite.

Manuel Castells a noté l’écart important entre notre « surdéveloppement technologique » et notre « sous-développement social » à la fin des années 1990 et cet écart ne cesse de se creuser. Pour réduire cet écart, il faut envisager d’autres voies pour l’avenir des sociétés à médiation numérique, mais le débat actuel porte principalement sur la manière de garantir le droit du public à l’accès à l’information, l’absence de surveillance non désirée et la protection des personnes en matière de confidentialité au moyen des technologies disponibles actuellement sur le marché.

Dans les travaux visant à déballer la boîte noire numérique, la recherche se concentre sur l’impact des systèmes informatiques avancés sur le tri social et la discrimination, sur la question de savoir si les personnes actives en ligne connaissent ces systèmes et leurs préjugés, et si ceux qui les utilisent sont responsables devant une  » autorité supérieure  » lorsque quelque chose va mal. Cependant, avec le développement de l’intelligence artificielle et de ses applications et ses fortes perspectives de croissance économique, il y a une fascination pour le quantifiable, les données et les prévisions toujours plus précises du comportement humain et non humain.

Dans l’industrie, l’objectif est de donner l’assurance que, quels que soient les préjugés des systèmes informatiques et des machines d’apprentissage, la recherche et le développement sont menés dans le but de garder les êtres humains en sécurité, heureux et potentiellement plus riches.

Le défi pour les décideurs politiques consiste non seulement à déterminer si les systèmes numériques contemporains sont exploiteurs ou libérateurs, inclusifs ou exclusifs, mais aussi à évaluer si l’innovation évolue sur une voie où les systèmes techniques deviendront les principaux moteurs des résultats sociétaux et, de plus en plus, nieront l’action humaine.

© Texte, Robin Mansell, London School of Economics and Political Science, London, UK
© Photo entête, Medium

S’adapter à la perturbation numérique

Publié le Mis à jour le

Dans la foulée de tous les développements technologiques, des efforts sont de plus en plus consacrés à l’élaboration de visions de sociétés de l’information équitables et propices au bien-être. Dans les pays riches comme dans les pays pauvres, certains experts affirment que l’investissement dans les technologies numériques offre aux pays à revenu faible ou intermédiaire la possibilité de sauter des générations de technologies. On s’attend à ce qu’ils rattrapent, voire surpassent, les pays riches pour ce qui est d’assurer à leurs sociétés les avantages de la technologie numérique.

Bien que la Déclaration de principes adoptée lors du Sommet mondial sur la société de l’information en 2003 souligne un « désir et un engagement communs de construire une société de l’information centrée sur l’être humain, inclusive et orientée vers le développement », conformément à la Charte des Nations Unies et à la Déclaration universelle des droits de l’homme, une approche axée sur la technologie domine dans la littérature politique et commerciale et dans plusieurs branches des universités. Certains experts soulignent qu’il n’existe pas de modèle unique de société à médiation numérique, mais un modèle homogène qui minimise les facteurs sociaux, culturels, politiques et économiques qui peuvent conduire à des résultats très différents en matière d’investissement numérique.

Même lorsque les visions d’une voie d’avenir transformatrice d’inspiration numérique émergent de délibérations multipartites, l’hypothèse sous-jacente est que les marchés concurrentiels la fourniront, malgré le fait que les marchés des services numériques ne fonctionnent pas selon les hypothèses de la théorie du marché parfaitement concurrentiel. L’opinion dominante veut donc que l’innovation dans le domaine numérique devrait être laissée au marché avec aussi peu d’intervention politique proactive que possible.

Le domaine des compétences numériques constitue une exception à cette règle. Le déficit de compétences est considérable et la déqualification et le renforcement des compétences font l’objet de nombreux débats. L’orientation de l’innovation numérique affecte la répartition des revenus des populations en remplaçant les humains par des machines pour accomplir un nombre croissant de tâches, avec des prévisions variables quant à la gravité de la menace qui pèse sur les moyens de subsistance des travailleurs et à la rapidité avec laquelle les emplois seront déplacés.

Les travailleurs qualifiés dans des domaines tels que l’intelligence artificielle (IA), la gestion des données, le contrôle de la qualité des données et la visualisation des données sont rares. La recherche sur la fracture numérique se concentre souvent sur le renforcement des compétences dans les domaines techniques d’expertise. De nombreux pays mettent en place des stratégies visant à renforcer les compétences dans les matières STIM — sciences, technologie, ingénierie et mathématiques, y compris le codage. Ces compétences sont nécessaires à l’emploi dans le domaine de l’analyse des données, de la science axée sur les données et de l’IA, mais l’inégalité dans le monde numérique ne peut être abordée sans tenir compte également d’autres déterminants de l’inégalité et de l’exclusion.

Les inégalités exacerbées par la diffusion des technologies numériques ne peuvent être comblées principalement en augmentant le nombre d’informaticiens et de diplômés ayant une formation technique spécialisée. Les citoyens doivent pouvoir gérer l’information de manière créative. Ils doivent être capables de sélectionner l’information, de ne pas tenir compte d’informations non pertinentes et d’interpréter les schémas d’information ; et ce ne sont pas des compétences techniques.

Cette caractéristique du déficit de compétences est particulièrement importante en ce qui concerne la production et la consommation de contenus médiatiques où les  fausses nouvelles constituent un problème croissant. Les canulars en ligne sont créés pour le profit et pour fomenter des perturbations politiques. Ce type de contenu des médias sociaux induit les citoyens en erreur, crée une culture de méfiance et de confusion, et il y a des signes croissants d’inégalité entre ceux qui font confiance aux médias et ceux qui ne le font pas. En principe, n’importe qui peut créer une page d’accueil, mais la discrimination dans l’utilisation d’Internet dépend d’un éventail de compétences pour s’engager dans la communication interactive, la diffusion et la collecte d’informations, ainsi que l’interprétation des informations.

L’absence de progrès significatifs dans le développement d’une culture numérique à grande échelle signifie que les personnes qui n’ont pas les compétences appropriées sont progressivement marginalisées et exclues. Ils peuvent être exclus par leur incapacité à reconnaître la valeur ou l’utilité des services numériques ou parce qu’ils ne savent pas comment les services peuvent être utilisés de manière socialement ou économiquement productive.

L’analphabétisme numérique est un problème croissant. Il existe des outils de filtrage et de censure de l’information, mais lorsque les enfants et les adultes ne peuvent faire la différence entre une publicité ou une fausse nouvelle et une nouvelle fiable, les hypothèses fondamentales de la participation civique dans la vie politique sont remises en question.

Au Royaume-Uni, des études montrent que seulement 25 % des enfants de 8 à 11 ans peuvent comprendre la différence entre une publicité ou un lien sponsorisé et un message ordinaire dans les médias sociaux. Environ 33 % ne savent pas faire la différence. Un peu moins de 50 % des jeunes de 12 à 15 ans et seulement 6 adultes sur 10 pouvaient faire la différence.1 Aux États-Unis, des chercheurs ont testé des étudiants dans tout le pays et ont constaté que relativement peu d’entre eux pouvaient distinguer une annonce d’un reportage ou d’une information d’un groupe de pression politique. Ils ont conclu que « nous craignons que la démocratie ne soit menacée par la facilité avec laquelle la désinformation sur les questions civiques peut se propager et s’épanouir ».

Le fardeau de la responsabilité et les coûts de la participation à des sociétés convergentes sur le plan technologique et à médiation numérique incombent de plus en plus aux individus. Les technologies et les plateformes numériques créent des possibilités de relations directes et intermédiaires entre les entreprises et les clients (et entre les gouvernements et les citoyens) et les comparaisons de prix peuvent être effectuées à l’échelle mondiale. La concurrence entre les plus grands opérateurs de plates-formes peut créer de la variété et du choix pour certains, mais le risque est que ces développements excluent les plus défavorisés ou encouragent leur inclusion à des conditions moins favorables qu’elles ne le sont pour les plus aisés.

© Texte, Robin Mansell, London School of Economics and Political Science, London, UK
© Photo entête, Center for Crative Leadership

Ville intelligente, le défi des technologies numériques

Publié le Mis à jour le

À l’exception peut-être de la nanotechnologie et de la biotechnologie, aucune autre technologie n’est aussi prometteuse pour améliorer la vie des citoyens que puissent l’être les technologies numériques. Ces technologies se distinguent par leur omniprésence et leurs multiples aspirations en matière d’utilisation. Les technologies numériques sont impliquées dans notre façon de travailler, de magasiner, d’apprendre et de jouer, et elles jouent un rôle vital dans l’autonomisation des individus et des communautés. L’application de ces technologies devrait accroître la productivité et la compétitivité, modifier les systèmes éducatifs et culturels, stimuler les échanges sociaux et démocratiser les institutions.

Néanmoins, des appels constants sont lancés en faveur d’une réévaluation de leur gouvernance lorsque les avantages promis s’accompagnent de menaces réelles ou perçues pour les consommateurs et les citoyens. La diffusion de ces technologies dans l’ensemble de la société remet en question les idées reçues sur le pouvoir, les privilèges et l’influence dans la société. Il est urgent d’évaluer si ces aspirations se réalisent en raison de la possibilité que les bénéfices revendiqués se révèlent être des promesses vides de sens ou qu’ils ne soient que des approximations grossières de transformations profondes.

Des médias sociaux pilotés par des algorithmes, à l’Internet des objets (la maison intelligente Alexa d’Amazon), en passant par les tests de voitures sans conducteur, les robots de soins personnels, les ordinateurs portables, les robots avocats pour la justice personnelle et les robots scalpeurs pour acheter des billets ou des offres spéciales, pour certains, le monde numérique crée de nouvelles possibilités pour rendre le monde plus équitable.

Au cours des dernières décennies, l’innovation dans les technologies numériques s’est produite à l’intersection des frontières établies de l’industrie. La convergence technologique offre de nombreux moyens novateurs de configurer les composants numériques, mais elle est généralement associée à la consolidation du marché. Bien que certains considèrent la convergence sur le marché numérique comme une évolution positive, d’autres y voient une reproduction des asymétries de pouvoir dans la société. La convergence des technologies et la consolidation du marché semblent conduire à de nouvelles structures de contrôle hiérarchique et d’inégalités qui enrichissent le bien-être d’une minorité au détriment de la majorité. Ces mêmes développements sont également perçus par certains comme des terrains vagues anarchiques, parsemés d’espaces en ligne murés, et n’admettant que ceux qui se soumettent à l’autorité de certains fournisseurs de services numériques. Et si les fournisseurs de technologies et de services numériques suivaient une voie malavisée avec des conséquences négatives pour tous les êtres humains ?

Tous ces développements sont influencés par la politique et la réglementation ainsi que par les valeurs sociales inscrites dans les technologies numériques. En raison de leur modularité, au fur et à mesure que ces technologies évoluent, elles prennent de plus en plus de caractéristiques « système ». Il en résulte une imprévisibilité considérablement plus grande que par le passé, ce qui, à son tour, rend difficile d’envisager les avantages et les problèmes futurs associés à l’innovation technologique numérique perturbatrice.

Du côté des avantages, les algorithmes qui orientent de plus en plus les services numériques peuvent produire des informations qui aident à atténuer les dommages causés par les catastrophes, à protéger les personnes dans les espaces publics, à signaler les risques sanitaires et à surveiller les changements climatiques. L’utilisation de services basés sur des algorithmes permet aux entreprises d’augmenter leurs profits. De nouveaux types de risques attirent l’attention du public mondial et des technologies et applications numériques innovantes devraient venir à la rescousse lorsque, par exemple, les réseaux électriques tombent en panne, les crises financières s’aggravent, ou que des fuites d’informations se produisent. Ces services fournissent également aux citoyens de l’information à l’appui d’une politique de résistance aux politiques et pratiques injustes.

Du côté des problèmes, les modèles d’affaires novateurs conçus par les entreprises opérant dans l’économie numérique permettent à des entreprises comme Amazon de vendre des produits à des prix réduits de manière sélective à des clients ciblés, mais cela réduit les marges des librairies indépendantes et des hyperlibrairies. Le contenu numérique devient rapidement la courroie de transmission de la publicité de services payants qui regroupent, filtrent et intègrent l’information pouvant être vendue à une minorité de clients exigeants qui sont disposés et capables de payer. Les médias publics, y compris la radiodiffusion, sont confrontés à une concurrence intense face aux plates-formes numériques qui regroupent le contenu et servent de gardiens.

La combinaison de l’innovation rapide et du pouvoir asymétrique sur le marché prive divers groupes de leur pouvoir en raison du chômage induit par la technologie, de la hausse de la criminalité, de l’atteinte à la vie privée et, souvent, de la restriction de la liberté d’expression. Les inégalités sociales et économiques se creusent à l’intérieur des pays, alors même que les fractures en matière de connectivité numérique se comblent avec l’essor de la téléphonie mobile.

Les systèmes automatisés de prise de décision sont couramment utilisés par les banques, les employeurs, les écoles, la police et les organismes de protection sociale. S’ils sont mal conçus et peu transparents, ils peuvent causer un préjudice important par la discrimination et la marginalisation sociale. En Europe, le Règlement général sur la protection des données (RGPD) de l’Union européenne peut contribuer à minimiser les effets négatifs en donnant aux citoyens le droit à une explication des décisions qui reposent sur ces systèmes, mais ce règlement n’a pas été testé et les défis de la protection des droits fondamentaux des adultes et des enfants à l’ère numérique continuent à croître dans toutes les régions du monde.

© Texte, Robin Mansell, London School of Economics and Political Science, London, UK
© Photo entête, Medium

 

 

 

Intelligence artificielle et création d’emplois

Publié le Mis à jour le

►  Les cahiers de l’intelligence artificielle

40 % des entreprises ajoutent des emplois après avoir déployé l’IA, au lieu de les supprimer. Selon un rapport publié le 8 janvier 2019 par Dun & Bradstreet, le manque de connaissances en interne sur l’intelligence artificielle a conduit les entreprises à embaucher davantage de personnes.

En fait, plus de 40 % des entreprises créent plus d’emplois en intégrant l’intelligence artificielle (IA) à leurs activités. Malgré les craintes que l’intelligence artificielle représente une menace pour l’emploi, seulement 8 % des 100 dirigeants d’entreprises du Global 2000 interrogés ont déclaré que leur entreprise supprimait des emplois après avoir mis en œuvre la nouvelle technologie.

Environ 34 % des répondants ont déclaré que la demande d’emploi demeurait la même dans leur entreprise, quelle que soit la mise en œuvre de l’IA. Et 18 % ont déclaré que l’IA n’avait aucune incidence sur leur main-d’œuvre, ce qui indique que la peur entourant l’IA pourrait être principalement attribuable à l’exagération.

L’IA est très présente dans le monde des affaires, et la majorité des organisations l’utilisent dans une certaine mesure, selon l’enquête. Le nombre d’entreprises qui adoptent et déploient l’IA ne devrait qu’augmenter. À l’heure actuelle, près de la moitié (44 %) des entreprises sont en voie de lancer l’IA, et une entreprise sur cinq déploie pleinement l’IA dans son organisation, selon le sondage.

Selon le rapport, le plus grand défi que 46 % des répondants ont déclaré avoir à faire face concernant l’IA est la capacité d’expliquer – la capacité de comprendre et de communiquer comment les systèmes d’IA parviennent à leurs conclusions, selon le rapport. Seulement un tiers des répondants ont dit qu’ils comprenaient parfaitement le fonctionnement de leurs systèmes d’IA, ajoute le rapport, ce qui explique pourquoi il y a une demande pour de nouveaux employés qui comprennent les tenants et aboutissants de l’intelligence artificielle.

Toujours selon le rapport, le manque de données est un autre défi majeur que les organisations rencontrent dans leur déploiement de l’IA. Les données sont la base sur laquelle toute technologie – en particulier l’intelligence artificielle – se construit. Si on dispose d’une base de données plus ou moins étoffée, on obtiendra vraisemblablement des résultats plus ou moins fiables. Comme les données continuent d’être produites et stockées en quantités exponentielles croissantes, nous commencerons à voir les systèmes d’IA s’adapter et s’améliorer, ce qui est inhérent aux systèmes d’intelligence artificielle.

Au sein des organisations, les principaux cas d’utilisation de l’IA sont l’analyse (62 %), l’automatisation (52 %) et la gestion des données (42 %). Environ 29% utilisent la technologie pour améliorer les systèmes de type « back-end », et 23 % utilisent l’intelligence artificielle pour les assistants de conversation destinés aux consommateurs, selon le rapport.