• Laurent Chemla : ils sont trop forts ces voleurs 2.0… | Reflets
    http://reflets.info/laurent-chemla-ils-sont-trop-forts-ces-voleurs-2-0

    En remontant à peine un peu plus loin, c’était presque hier, dans les années 90 du siècle dernier (vous n’étiez pas nés) je me souviens qu’à
    la fac on utilisait un truc moderne appelé un « terminal X ». Imaginez un peu : le système d’exploitation était ailleurs et, sur notre écran, on
    avait l’affichage de l’application, mais tout se déroulait « dans les nuages ». Si seulement on avait pensé à appeler ça du « SaaS en Cloud »
    on se serait sûrement fait des couilles en or (et on aurait économisé 20 ans).

    Ah hé bien ça y est, je suis fan de Laurent Chemla depuis 5 minutes. Il dit mieux que je n’aurais su le faire combien on se fout quand même un petit peu de la gueule du monde.

  • Concern for Those Who Screen the Web for Barbarity - NYTimes.com
    http://www.nytimes.com/2010/07/19/technology/19screen.html?_r=2&8dpc

    Enquête du NYT sur le business de la #modération du #Web-2.0 — et ses conséquences #psy chologiques :

    Workers at Telecommunications On Demand, who make $8 to $12 an hour, view photos that have been stripped of information about the users who posted them. Rapidly cycling through pages of 300 images each, they are asked to flag material that is obviously pornographic or violent, illegal in a certain country or deemed inappropriate by a specific Web site.

    (...) [the] president of Telecommunications On Demand (...) compared the reviewers to “combat veterans, completely desensitized to all kinds of imagery.” The company’s roughly 50 workers view a combined average of 20 million photos a week.

    Last month, an industry group established by Congress recommended that the federal government provide financial incentives for companies to “address the psychological impact on employees of exposure to these disturbing images.”

    Mr. Nigam, co-chairman of the group, the Online Safety and Technology Working Group, said global outsourcing firms that moderate content for many large Internet companies do not offer therapeutic care to their workers.

    YouTube et #Facebook ne font pas appel à des sous-traitants en Inde :

    #YouTube, a division of Google, is an exception. If a user indicates a video is inappropriate, software scans the image looking for warning signs of clips that are breaking the site’s rules or the law. Flagged videos are then sent for manual review by YouTube-employed content moderators who, because of the nature of the work, are given only yearlong contracts and access to counseling services, according to Victoria Grand, a YouTube spokeswoman.