• How We Got 400 Free Beta Testers
    https://hackernoon.com/how-we-got-400-free-beta-testers-7b55ddb7cb2e?source=rss----3a8144eabfe3

    How We Got 400 Free Beta Testers (No Growth Hacking Involved)Have you heard this #startup narrative?Come up with an idea, build it, launch to an audience that accepts you wholeheartedly, and watch the money roll in.While that may happen to a select few, it’s a bit different for us mere mortals.Before your product is ready for prime time, it needs to be tested by a pool of users who represent your target market.These beta testers will let you know if you’re on the right track and help you spot bugs and useful features.You learn more about your customers, your developers get a clear roadmap, and customers get to use an awesome product.Everyone wins.sourceIt used to be easy to get people to sign up for your app. Now — not so much. Markets are saturated.In this post, I’ll share how we got our first (...)

    #startup-lessons #marketing #beta-tester

  • Premier accident mortel pour le pilote automatique de Tesla | Silicon 2.0
    http://siliconvalley.blog.lemonde.fr/2016/07/01/premier-accident-mortel-pour-le-pilote-automatique-de-tes

    Première tragique pour la fonction de pilotage automatique de Tesla. Au début de mai, un automobilisme américain a trouvé la mort au volant d’une Model S, la berline de luxe du fabricant californien de voitures électriques. Rendu public jeudi 30 juin, cet accident a provoqué l’ouverture d’une enquête de la National Highway Traffic Safety Administration (NHTSA), l’organisme responsable de la sécurité routière. Celle-ci pourrait déboucher sur un rappel des quelque 25 000 véhicules vendus par Tesla aux Etats-Unis.

    Cet accident mortel a eu lieu sur une voie rapide en Floride alors que le pilote automatique était activé. A une intersection, la voiture a percuté un poids lourd qui lui avait coupé la route afin de tourner à gauche. En raison d’un « ciel lumineux », « ni le pilote automatique, ni le conducteur n’ont détecté le flanc blanc de la remorque, détaille l’entreprise fondée par Elon Musk, dans un message publié sur son site Internet. Les freins n’ont donc pas été enclenchés ». Le conducteur est décédé sur le coup.

    • Iron Man fait parler les morts maintenant… le fait que le « conducteur » n’a pas freiné ne signifie pas forcément qu’il n’a pas pu voir le camion (ce qui semble dédouaner le robot dans la manière dont c’est rapporté). Peut-être qu’il l’a vu et n’a pas eu le réflexe de freiner (puisqu’il avait délégué le contrôle du véhicule), ou peut-être qu’il l’a pas vu parce qu’il faisait un scrabble sur son iphone ! Enquête à suivre…

    • L’avis d’ouverture de l’enquête par le #NHTSA (aucun détail, si ce n’est que l’incident semble avoir été signalé par Tesla)
      (ODI : Office of Defects Investigation)
      http://www-odi.nhtsa.dot.gov/acms/cs/jaxrs/download/doc/UCM530776/INOA-PE16007-7080.PDF

      Action: A Preliminary Evaluation has been opened.
      Summary:
      ODI has identified, from information provided by Tesla and from other sources, a report of a fatal highway crash involving a 2015 Tesla Model S operating with automated driving systems (“Autopilot”) activated. This preliminary evaluation is being opened to examine the design and performance of any automated driving systems in use at the time of the crash.

    • Une petite revue des questions soulevées par le principe même du pilote automatique, réactivées par l’accident de la Tesla.

      Is Tesla Responsible for the Deadly Crash on Auto-Pilot ? Maybe. - Forbes
      http://www.forbes.com/sites/patricklin/2016/07/01/is-tesla-responsible-for-the-deadly-crash-on-auto-pilot-maybe/#75eb35f35bbc

      Tesla’s Autopilot had its first fatality, the company announced yesterday. Statistically, this was bound to happen. The self-driving car had broadsided a truck that its sensors didn’t detect, and the driver didn’t see it either.

      Does Tesla have any responsibility for the accident, even if the driver was supposed to be watching the road at all times?

      The argument for why the driver, not Tesla, was responsible is that the driver had agreed to always monitor the road, in case of emergency situations exactly like this that the car cannot handle. This is part of the company’s standard agreement before it allows customers to use the #Autopilot feature, which is still in beta-testing mode since its introduction last October. (Beta-testing is working out the last bugs in a product before its official release to the public.)

      Et d’abord, est-il raisonnable de réaliser le #beta-test du logiciel en conditions réelles ?

      Puis les considérations éthiques déjà abordées ici.

      Enfin, une session prévue sur le sujet à la fin du mois

      Later this month in San Francisco, we’re already planning to address this exact issue in a half-day ethics session at the Automated Vehicles Symposium, sponsored by the Transportation Research Board and AUVSI. Tesla’s unfortunate accident reminds us that these conversations aren’t just academic but are all too real.

      L’auteur parle à 10h15, le 19 juillet
      http://www.automatedvehiclessymposium.org/program/agenda