Originally posted on LinkedIn
La IA puede ser la tech más peligrosa desde la bomba nuclear… y spoiler - pareciera que no ☠️
Ayer salió una pieza increíble en The New Yorker hablando, MUY en detalle, de Sam Altman, su carrera e interacciones que ha tenido con muchas personas en su camino.
Bullets:
- Mitómano - al parecer hasta su ex-socio hizo una recopilación de 70 páginas de cómo mentía en todo (cosas chiquitas y grandes).
- Tanto en Loopt (su primera empresa) como en YC como en OpenAI empleados y stakeholders pidieron que las juntas lo despidieran por su comportamiento.
- Un montón de miembros de sus juntas, conocidos y empleados hablando de su comportamiento y reservas con él.
- Detalles de cómo se hizo el loco con toda la promesa de hacer AI para el bien de la humanidad.
- Cómo ha construido relaciones con mega-magnates del Medio Oriente (que le regalan carros de 20MM USD) para recibir inversión.
- Cómo se pasó de ser Demócrata a Republicano, cómo se volvió cercano de Trump, y cómo cogió el trato de dar AI para uso en guerra del Pentágono.
- Un montón de cosas más. Es larguísimo - pero vale la pena.
▶️ Dejo el link a la discusión en HackerNews donde lo encontré en los comentarios (y ahí está el link al artículo oficial y a mirrors no oficiales).
Viniendo del New Yorker estoy muy muy confiado de que es verídico y confirmado TODO.
Siento que esta obsesión con “crecer a toda costa” siempre termina en lo mismo - sacrificar todo en nombre de plata y poder. ¿Qué pasará en la carrera del AI si figuras como Altman tienen el dedo en el botón?
¿No debemos los emprendedores guiarnos por una ética más allá de la plata y el crecimiento? Yo creo que se puede tener balance entre misión, crecimiento y utilidad.
Lastimosamente la presión de crecer muchas veces se lleva por delante cualquier misión que hubiera. A veces de manera inconsciente… otras veces nunca hubo más misión que poder, reconocimiento y dinero.
¿Qué creen ustedes?