Ces plateformes s'autocensure depuis bien longtemps dans certains pays ou simplement pour les annonceurs…. Des arguments supplémentaires pour quitter ces plateformes.
M. Damas sur Le journal du Hacker: un de ces profs passionné par son taff (peu de prof me laisse un souvenir positif …)! Je vous conseille vivement de regarder le reste de ces dessins.
Article très intéressant ! J'aime le fait qu'il ait présenté un peu la partie technique, la plupart des articles sur le deep learning se contentent juste de donner des résultats sans chercher à démystifier ce qui se trame derrière.
J'ai posté un article qui explique que l'IA c'est un peu de l'alchimie… d'où peut-être le manque de transparence de certains articles sur le bien-fondé scientifique des méthodes utilisées par l'IA.
Je l'ai également lu, mais il me pose plus interrogations qu'il n'y répond, sur le côté « science de l'informatique ». Pendant des années, l'informatique s'est posée comme une science en se basant sur les notions de calculabilité, complexité et d'expressivité des programmes. Les algorithmes qui sont utilisés tous les jours dans les librairies standard (tri rapide, djikstra) ont été prouvé mathématiquement.
Dans le cas de l'IA, on perd complètement cette dimension. J'ai l'impression qu'on ne cherche plus à prouver la démarche utilisée, mais que l'on construit une tautologie qui se résume à « on prouve que l'IA fonctionne car on obtient des résultats ».
Bon, je résume grossièrement ici. Mais dans l'ensemble, j'ai l'impression qu'il nous manque tout un bagage théorique sur l'IA pour pouvoir en comprendre ses limites et son fonctionnement.
Chimrod, pour en avoir discuter avec une connaissance qui est chercheuse sur le sujet. Il y a un peu de “magie” que l'on ne sais pas encore suffisamment expliquer. Pourquoi tel pattern de réseaux de neurone fonctionne bien sur une problématique et pas sur une autre restent un peu mystérieux. On sait que ça fonctionne, alors on l'utilise….
Même si c'est perfectible c'est une bonne initiative. J'espère que tu auras l'occasion d'améliorer et faire grandir ce projet!
oui, tout à fait, c'est perfectible j'en suis le premier conscient :) On va progressivement améliorer ça.
«Chaque utilisateur ayant un droit à l’oubli, il est nécessaire de prévoir une fonction qui supprime l’ensemble des données personnelles de cet utilisateur.» Alors NON: cela dépend très très fortement de l'intérêt du consommateur, et des autres obligations légales. Écrire ça comme ça décrédibilise totalement le reste de l'article.
J'ai pris le temps de faire un article orienté pour les DEVELOPPEURS, pour leur donner une idée des implications de cette réglementation. Comment un article de 1300 mots pourrait-ils prétendre résumer l'implémentation de la GDPR qui est composer d'une centaine de pages ? Il s'agit bien évidement de vulgarisation et par conséquent il y a des raccourcis dans l'article. Bien sûr que les données nécessaires aux obligations légales ne peuvent être supprimées (par exemple)…. Je l'explique d'ailleurs dans un des paragraphes plus bas. Je t'invite avec (grand) plaisir à faire un commentaire plus constructif, je l’intégrerai volontiers au sein de l'article.
Alors pourquoi avoir parlé de “droit à l'oubli” ? Il n'existe pas sinon cité entre guillemets. On te parle de “droit à l'effacement”, ce qui est un chouilla différent. Par contre, le particulier peut demander la restitution d'une partie des données, celles que tu as donné, tu peux demander l'effacement de ton identité pour les services non essentiels, et à la fin des traitements usuels (délais de garde, garantie, expiration de droits, etc), ces données nominatives doivent disparaitre.
(EDIT : j'oubliais de signaler qu'une empreinte digitale, une image de caméra de vidéosurveillance, l'IP d'un ADSL ou un SSID d'un smartphone est une donnée identifiante, donc personnelle. Et on a déjà une première précision dans le RGPD qui précise qu'une telle donnée ne peut être marchandée. Exeunt donc les filtres anti-anti-adware des journaux ou l'obligation de donner son numéro de plaque minéralogique pour se garer).
Or, il se trouve que ces dispositions existaient déjà dans la loi française et les normes du traitement documentaire. Je le sais d'autant mieux que j'ai bossé sur une GED avec une formation spécifique sur ces normes.
Sur la gestion d'un fichier avec données nominatives, il “suffit” pour un développeur de se calquer sur les procédures de gestion documentaire, qui stipulent qu'une donnée récoltée doit être décrite, avoir une finalité précise, une traçabilité, et des process, notamment les conditions d'accès aux données. Car oui, dans le RGPD, si tu le relis très attentivement, on te demande de documenter des procédures et les flux de données. Oui, je sais, écrire de la doc, c'est toujours bien moins sexy que faire du TDD ou jongler avec ses images dockers… Mais cela t'oblige à réfléchir à 2 fois sur par exemple ton presta de newsletter ou le service d'OCR en PaaS. C'est la raison pour laquelle tu es responsable du choix de ton sous-traitant, et que ce dernier doit t'informer de toute modification dans le process concernant tes données, notamment le recours à sa propre sous-traitance ou la localisation (grossière) de ses serveurs de backups.
(EDIT: j'avais oublié aussi de préciser qu'il y a un process qui est demandé en cas de découverte d'une faille de sécurité. Comme répondre à ces questions : Pourquoi a-t-elle eu lieue ? Comment a-t-elle lieue ? Qu'avez-vous fait pour la limiter dans l'immédiat ? Avez vous les logs d'accès ? Qui a profité de cette faille ? Qui est impacté par les données disséminées ? Que comptez-vous faire pour qu'elle ne se reproduise pas ?. Encore une fois, documenter et que des bonnes pratiques)
Après, il y a de très nombreuses subtilités qui existent déjà dans le droit, mais sont désormais normalisées au niveau Européen ; Comme, par exemple que les coordonnées d'une entreprise uni-personnelle doivent être vues comme celles d'un particulier. Eh oui, ben ça, ça date des premières jurisprudences de la loi de 1978. Et on ne limite pas uniquement aux données commerciales : les salariés sont eux-aussi concernés. D'ailleurs, plutôt que prôner l'effacement, ce qui cause de nombreux autres soucis comme la cohérence de ta base, il vaut mieux recourir à la pseudonymisation, donc utiliser des tables, voire des bases différenciées.
Je suis désolé de ma tartine, mais… La loi c'est comme le code : l'imprécision peut se payer cher
Très clairement, tu es plus calé que moi sur le sujet! L'objectif n'est absolument pas de toucher des personnes comme toi dans cet article, je te désinforme plus que autres choses. L'objectif est de faire découvrir à tous les développeurs et autres fonctionnels les implications (assez grossièrement) de cette nouvelle réglementation. Merci pour ton retour intéressant !
Oh purée… Lire le RGPD ne suffit pas, il aurait fallut faire aussi relire son article par un juriste.
peut-être pas jusqu'au paradis, mais c'est vrai qu'il n'est pas rare d'être recontacté par téléphone lors d'une urgence les premiers mois quand tu passes d'une boîte à une autre.
J'avais vu l'article (sur silicon.fr je crois), après avoir lu qu'il leur fallait installer un malware sur le pc pour se faire j'ai trouvé ça trop con comme info. Autant s'arrêter au malware et pas à leur truc qui balance les infos à la vitesse de 2 à l'heure lol.
Tcho !
4Ko/seconde, ça veux aussi dire avec la caméra (Plusieurs millier/dizaine de millier d'image par seconde ?) qui va bien et un accès direct avec cette caméra…. ça limite le cas d'usage xd
http://www.silicon.fr/led-disques-durs-mouchards-169229.html ouais 1 Mo de données toutes les 30 minutes, la grosse blague lol
J'utilise assez intensément le JDH, et j'ai de plus en plus de mal à trouver des contenus intéressants, beaucoup se servent de la plateforme pour avoir de la visibilité, moi le premier. Le problème est quand ces même personnes font des articles de qualités médiocres. Aujourd'hui sur 5-6 liens ouverts par jour, j'en lis en moyenne 1 ou 2 et ce sont souvent les mêmes sources, de qualités.
Un moyen évoqué est le down vote … C'est disruptif mais efficace. Sinon faite plus de Upvote, pas mal de monde réagi à cette article, si tout le monde s'y met il y aura un résultat!
Salute,
Bon dans les 5 premiers résultats d'une recherche “Backup your Database in Git” : http://softwareengineering.stackexchange.com/questions/241109/is-backing-up-a-mysql-database-in-git-a-good-idea
L'article en Anglais sur lequel est basé cet article date de 2009, certains commentaires remontent les soucis pouvant en résulter.
“Disclamer : Je n’ai pas testé cette solution en production” –> Ne pas tester ni utiliser en production. De là on peut se demander si l'article est utile.
J'espère ne pas paraître dur mais entre ce qu'il est possible de faire avec un outil et ce qu'il est recommandé de faire, il y a un monde. Je peux utiliser un tournevis pour planter des clous mais c'est pas fait pour à la base. En tant que sysadmin cet article est plus un problème qu'autre chose car il laisse penser que c'est envisageable, cette solution est tout simplement à éviter car elle posera plus de problèmes qu'autre chose.
Tcho !
Yop,
Merci pour ton retour ^^. Je sais pour l'article de 2009, c'était une base. Je pense que l'article est plus plus réaliste aujourd’hui qu'en 2009 ou git avant de sérieux soucis. Git gérant aujourd'hui bien mieux les gros fichiers et les gros dépôts.
Cependant, si j'avais pu faire plus d'expérimentation je pense que je serai à même dé déconseiller ça sur des bases assez volumineuses. Cependant sur des bases de quelques Mo (peut être jusque 100 Mo) de sites persos ou pro avec peu de données c'est une solution simple.
Je vais ajouter un warning plus explicite sur la problématique git sur des gros volumes.
Les arguments avancés ici http://softwareengineering.stackexchange.com/questions/241109/is-backing-up-a-mysql-database-in-git-a-good-idea datent de 2014 et sont pertinents. Une sauvegarde doit être fiable et la restauration rapide (voire simple), c'est loin d'être le cas de cette proposition.
Je t'embête plus ;)
Tcho !
J'ai ajouté un bon gros disclamer pour dire que la solution est imparfaite ^^.
Tant que les remarques sont constructives je prends, je suis loin d'avoir la science infuse ^^.
See you
Problème avec votre flux twitter les amis ? :p J'ai pas pu faire mon traditionnel retweet :D De manière générale pas de lien depuis quelques heures. D'autres articles sont passé à la trappe j'ai l'impression
Partagez partagez partagez!!!! C'est très dure de recruter dans ce coin là. Le bouche à oreille est la meilleur solution!
Tu as fait tourner sur linuxjobs.fr ?
l'inscription est libre, il faut simplement que les annonces contiennent des technologies du logiciel libre ou de l'open source Inscription recruteur : https://www.linuxjobs.fr/recruiter/new
On utilise toute la stack JEE ça passe ? Car le reste des outils, c'est quand même très proprio :S
De mon point de vue, un des problème des blogs c'est qu'il faut en suivre beaucoup pour avec un efficacité intéressante en terme de veille. C'est pour ça que les aggrégateurs type journal du hacker, planet libre sont très important et sont une partie de la solution à ce problème. Cela permet de se faire connaître un plus rapidement.
en effet je constate le problème. Je suis en train d'investiguer. Merci pour la remontée du problème.
Pour info, j'ai de mémoire probablement fait la manipulation suivante : Annulé mon vote up défini par défaut et remis ce dernier. Si cela peut aider :D
merci pour la précision, je ne pense pas que ça ait perturbé le processus. Je penche plutôt vers un bug au niveau du petit texte que tu as ajouté en complément du lien, qui se retrouverait peut-être joint au titre dans le flux RSS et donc dépassemnet de limite du nombre de caractères autorisé par Twitter. Il faut que je fasse un test de reproduction.
Commander des pièces PC sur Amazon (et ces multiples revendeurs)…. Quand on cherche une qualité de service, il y a mieux, je citerai LDLC par exemple. C'est généralement un poil plus cher mais il y a un service de qualité derrière.
Centralisation, revente des informations personnelles, placement de pubs, développement d'applications “gratuites” dans tous les domaines visant aux activités mentionnées précédemment, schizophrénie entre le discours et les actes vis-à-vis de la vie privée et des libertés individuelles (we’re not evil)… les griefs sont nombreux.
Ce n'est pas de la haine (pour moi) mais de la méfiance pour une entreprise disposant de beaucoup trop d'informations sur chacun d'entre nous et qui fait un peu ce qu'elle veut avec nos données (ciblages publicitaires par exemple, vente à des sociétés tierces, large partage avec les autorités américaines - notamment). Des gens souhaitent limiter l'empreinte que google à sur leurs vies et je peux le comprendre (même si certains services sont très performants).
Petit analogie, souhaiteriez vous que votre facteur lisent votre courrier pour vous apportez des pub plus en rapport avec vos besoins? Mais aussi qu'il regarde votre agenda, qu'il vous surveille quand vous êtes sur internet etc, etc ….
Je vais pas développer plus dans un simple commentaire je pourrais y passer quelques heures :p
L'autre grief majeur est que madame Michu (ménagère de 50 ans pas forcement doué en informatique), va utiliser les services de Google sans avoir conscience de tout cela. “Google c'est génial, c'est GRATUIT.”
Il est possible d'avoir conscience de ce que est google est de l'accepter, c'est un choix. Choix que ne fais pas Madame Michu.
“Si c'est gratuit, c'est toi le produit!”
Dure semaine pour ma part, du revert engennering sur du legacy code pour faire des spécifications nécessaires aux refactors futures. Voila qui n'est franchement pas fun, autant dire que se concentrer ce vendredi ne va pas être simple =)!
[Comment removed by author]
Ne pas rire
Parr rapport à ?
Que ce genre de comparaison ne prend jamais en compte le niveau de vie, la fiscalité et les avantages de chaque pays.
Entièrement d'accord.
C'est sur, la France serait encore plus loin dans le classement (Russie, Bresil, Inde etc…) serait devant!