Is Qualia a dangerous AGI? (Rumor)
From what I've followed and uncovered about Q* (read #QSTAR ), I see no reason why the board committee would need to dismiss Sam Altman. Especially Ilya Sutskever's decision to switch sides and join the other management board, making Altman's support insufficient and leading to his eventual dismissal.
Someone asked me on Twitter if anyone could summarize Q*, I took this opportunity to review my knowledge and the information I had gathered to give a comprehensive answer.
To summarize, #OpenAI's current mission is shifting from creating pure language models to what is called a "General Autonomous AI Agent." Incorporating Q-learning (or even A* and planning unit), a special kind of RL (Reinforcement Learning), typically used for training robots or for control in competitive gaming (like OpenAI Five controlling characters in DotA and defeating professional gamers), clearly shows the direction of AI research to achieve #AGI (Artificial General Intelligence) is heading this way.
But, if you look at it, just this shouldn't be the reason for Altman's dismissal.
So, I dug deeper and found this:
There's a leaked document claimed to be an internal OpenAI document, with some parts censored with black text. It was first found on 4chan and later spread on Reddit in the r/singularity subreddit. The document discusses a special project at OpenAI using Q* techniques to enhance its AI, named "Qualia." Qualia has two special capabilities:
‣ It created a new mathematical theory, enabling it to decrypt #AES192 encryption, commonly used for file encryption, using Tau analysis techniques. It's inferred that it can also crack the more common MD5 encryption. The NSA had a secret project named Project Tundra that could crack AES encryption, revealed by Edward Snowden.
‣ Qualia can analyze and suggest improvements to its own coding system. The leaked document strictly warns researchers not to implement this system, fearing it might become uncont
[What Happened: Sam Altman Ousted]
Today's hottest news undoubtedly revolves around Sam Altman being ousted from #OpenAI. Just days after shaking hands with the Thai PM at the APEC event, things have taken a dramatic turn.
From what I've gathered in analyzing the news, the most likely cause seems to be conflicts at the board level. Experienced board members like Elon Musk, Reid Hoffman, and Will Hurd have sequentially resigned, leaving Adam D'Angelo.
Currently, the board is split into two main factions: Sam and Greg (who also resigned with Sam) on one side, and Ilya, Adam, Tasha, and Helen on the other. The conflict appears to stem from a difference in approach: "move fast" versus "proceed with caution." In Silicon Valley’s eyes, #AGI is within arm's reach. Leading AI models in the pipeline, like OpenAI's #GPT5, Google's Gemini, and Amazon's Olympus, all boast 1.5 - 2 trillion parameters (compared to GPT-3's 175 billion and GPT-2's 1.5 billion). While GPT-4's exact parameter count is unknown, it's speculated to have 8 sub-models, each with 220 billion parameters, totaling 1.76 trillion, connected by a special AI called Mixture of Experts (MoE). If GPT-5 follows this trend, it could have upwards of 16 trillion parameters.
The issue now is that one half of the AI industry leaders, like Elon Musk, Geoffrey Hinton (who just left Google), and Max Tegmark, warn about the dangers of AGI. They highlight the "latent capabilities" of Generative AI, which even creators may not fully comprehend. On the other hand, figures like Yann LeCun (AI head at Meta) and Andrew Ng (former Google Brain, now at Coursera and http://deeplearning.ai) believe these concerns are exaggerated.
Hinton recently commented that AI is like a dragonfly - initially aquatic, but eventually it sprouts wings and flies. The question is, if AI is dangerous, like Hitler as a child, would we travel back in time to “eliminate” young Hitler?
Altman, a part of Y Combinator, rose rapidly through the ra
การใช้ AI ในองค์กร โดยคุณกานต์ ยืนยง
ทดสอบการ Live ครั้งแรก
การประยุกต์ใช้ AI ในองค์กรถือเป็นเรื่องที่เราต้องปรับตัวอย่างยิ่ง
บทบาทของนักกลยุทธ์ AI #ai #aistrategy #aispecialist #adaptive
การปฏิวัติฝรั่งเศส เกี่ยวข้องกับ AI อย่างไร #ai #Revolucion #change #organization #France
AGI คืออะไร? #agi #ai #openai #Microsoft #deepmind #singularity
ผลประกอบการของ 2 ยักษ์ใหญ๋ที่ลงทุน AI มหาศาล #ai #google #Microsoft #stock
สัมมนา ความปลอดภัย AI ที่อังกฤษ #UKAIsafety #ai #aisummit #meta
เงินเดือนพนักงาน AI เป็นอย่างไร? #AI #Meta #Anthropic #Inflection #tesla
ทำไม AI ไม่ใช่ Crypto ต้องดูคลิปนี้ครับ #AI #crypto #blockchain #DigitalCurrency #Bitcoin #Ethererum #Hamilton
AI มีพัฒนาการมาอย่างไร #AI #openai #chatgpt #NeuralNetworks #google #deepmind #transformation
Time Magazine พูดถึงบุคคลที่มีอิทธิพลต่อวงการ AI #AI #Chatgpt #OpenAI #google #xai
สัมมนา “พลิกโฉมธุรกิจด้วย Generative AI – Generative AI Horizon 2024”
วันศุกร์ที่ 27 ตุลาคม 2023 เวลา 9:00 – 17:00 น.
สถานที่: The Knowledge Exchange - ห้อง X-02 ชั้น 10
วิทยากร: คุณกานต์ ยืนยง และคุณอังกูร วงศ์กลธูต
ราคา 3,500 บาท/1 ท่าน
ดูรายละเอียดเพิ่มเติมและสมัครได้ที่ https://www.geopolitics.asia/post/seminar-generative-ai-horizon-2024
ทำไมผู้บริหารต้องสนใจ AI #chatgpt #ai #openai #anthropic #meta #bard #google
AI ภาษาและทางเลือก #ai #claude #chatgpt #openaj #industrialrevolution #anthropic
AI โตขึ้น คุยรู้เรื่อง? มารู้จักคำว่า Multimodal #ai #openai #chatgpt #multimodal #google #meta #midjourney #bard #chatgpt
ChatGPT เปิดตัวเมื่อไหร่? #AI #openai #chatgpt #samaltman #openai #Microsoft #bing
AI ใช้ภาษาไทยได้หรือยัง? มาฟังคำตอบได้ที่นี่ #ai #Claude #Bard #chatgpt #thai
AI กับ SIU ลึกถึงแก่นของ AI กับเรา #SIU #chatgpt #Claude #openai #hackathon2023 #googlevertex #ai #genai
4 สุดยอด AI ที่คุณควรรู้ #ai #chatgpt #OpenAI #claude #anthropic #LLM #Llama2 #meta #facebook #google