Partager à toutes et tous (enfin ceux que ça intéresse) ce que je note sur le net

Aller au contenu | Aller au menu | Aller à la recherche

Science4All - son avis sur ... Google démantèle son éthique (et tout le monde s'en fout...) - dans le domaine bien protégé de l'IA

Intéressant-*fear*, à vous de vous faire votre avis.
(il y a peut être de bonnes raisons derrière, HoupaHⓒ)

Note: déjà pas tout le monde, mais effectivement pas grand monde. MAIS il ne faut pas non plus que ça fasse tomber une chape de les IA c'est la mal. Les IAs sont ce qu'on en fait.
Mais là le message "envoyé" par Google n'est pas rassurant.

Update: des articles en parlant

 

Google démantèle son éthique (et tout le monde s'en fout...)

youtube.com Science4All - Google démantèle son éthique (et tout le monde s'en fout).jpg

La vidéo:

Commentaires

1. Le jeudi, 25. février 2021, 11:44 par Dush

Za ba français, za!
On ne peut pas "démanteler son éthique"... ça mélange pas mal de choses. L'éthique est quelque chose d'intangible, c'est une philosophie, c'est un ensemble de choses qui influencent la manière de penser et d'agir (d'une personne, d'une entreprise ou .. d'un programme *mouais*).

Il ont démantelé (une partie de) l'équipe responsable de l'éthique au sein de Google (Alphabet, pas Google !) Ils ont licencié 2 personnes sur quelques milliers...

Après, ça, le présentateur joue les épouvanteurs ("j'ai l'impression que ... tout le monde s'en fout" ... "à part ça ... la situation est terrifiante, absolument terrifiante"). Ca, pour nous faire peur, il s'y emploie... Comment tu écris en général ? *Mode FEAR* !? ("On nous ment, on nous exploite, on nous spolie").

Ceci dit, il y a effectivement plein de problèmes avec les IA et leur apprentissage etc.
Et il y a effectivement plein de problèmes potentiels avec les IA et l'éthique (en particulier, mais il n'en parle pas, l'usage d'IA dans les systèmes d'armements...)

Là, il parle de Google, mais les mêmes problèmes potentiels (parfois en pire) existent dans les équipes qui travaillent sur et développent des IA dans la plupart des universités du monde et dans pas mal de labos de recherche dans des pays qui ont de l'éthique une idée pas mal différente de la nôtre (et là, on touche le fond du vrai problème).
On peut mettre toute cette problématique en parallèle avec les questions de bioéthique et tout ce qui touche au clônage humain... Nous pouvons l'interdire chez-nous... mais que se passera-t-il dans d'autres pays ?

En fin de compte "Google est en train de créer les conditions parfaites pour ..." (4'57") insérer le scénario catastrophe de votre choix "et pourtant, tout le monde s'en fout !" (5'18 sur un ton catastrophé).
Les conditions pour les scénarios existent... elles ont déjà été utilisées (en 2015 et 2016 entre autres), mais pas par Google... (Facebook & Cambridge Analytica n'ont rien à voir avec Google).

Effectivement, si "on" (pronom imbécile) ne fait rien, ça se reproduira... avec ou sans Google !!

Pour finir... il dit, maintenant, en février 2021 "en l'espace de 2 mois ..." mais ça, on en parle depuis plus de 2 ans, et ce n'est pas nouveau... ce sont les derniers d'une floppée de brouettes. Et il se fixe encore sur Google alors que le problème est généralisé.

Et enfin... il critique, il alerte (l'anseur d'alertes) .. mais pas l'ombre d'un semblant d'idée ou de suggestion de solution...
- OK, il y a un problème... "et tout le monde s'en fout" ...
- OK, nous, on ne s'en fout pas...
- Qu'est-ce que tu proposes ? (Ah! Heu! Je sais pas... "ceux qui nous gouvernent devraient faire quelque chose !" - OK, quoi ? - Bheu ! Anaha .. heu ..coucou)

2. Le vendredi, 26. février 2021, 10:43 par Arfy

Alors "On" ne peut pas faire grand chose. Et JE ne me vois pas ne plus utiliser les services de Google / Alphabet.
JE trouve juste que le scénario qu'il dépeint me déplait. Le "Action" de ceux incriminés qui je suppose ont fait des trucs de bonne foi vs la "Réaction" de Google.
Mais je dis aussi, qu'il y a peut être d'autres raisons derrière, no idea.

J'en reste sur mon impression à ce jour:
Intéressant-*fear*, à vous de vous faire votre avis.