
Artificial Intelligence is a topic that has been widely debated, and since OpenAI was, and I believe still is, one of the pioneering companies in this technology, it's normal that many news stories, gossip, updates, videos, and articles are precisely about the environment surrounding this leading AI company on the planet, responsible for ChatGPT, the largest AI chat.
Perhaps not everyone knows, but Chat BOT Artificial Intelligences are not as "intelligent" as the media makes them seem with news of an unimaginable future where AI will dominate the entire production chain. Is it possible? It could be, with technological advancement, this is a real possibility, but it's worth mentioning that AI chats, like ChatGPT, operate on an LLM model, known as Large Language Models. Now, what about the problems of AI, are you familiar with them? Check out some of them now!
I'll be much appreaciated if you Votes, Reblogs or give any Tips. Thanks and have good reading! 🍀
These LLM models attempt to predict the next word in a sentence, based on training with a large volume of data. Therefore, the way the machine "responds" is not similar to human thought, and there are some problems with this model. The first is the need to store context; it's no coincidence that the price of RAM has risen so much with the increase in AI investment. Artificial intelligences that store context need a place to store previously discussed information, and for quick access, they use RAM.
In addition to the issue of data centers needing state-of-the-art equipment, something that not everyone considers is the lifespan of this hardware. While there is great optimism regarding the code, with the expectation that progress will increase with each new version released, on the other hand, few people comment on the enormous cost of component degradation, while the service is offered "cheaply" compared to the investment. Eventually, these components will need to be replaced, or technology will advance and something better will be created—better than running these models on existing video cards and RAM, perhaps even a new type of card.
Moving on to technology, but still talking about Data Centers, some details about them can be quite problematic. These structures are generally very technological and, although they generate a large value in tokens for AI use, there aren't many employees working there since everything is highly automated. Therefore, this isn't the type of project that will bring many jobs to a region. Furthermore, it could even end up causing losses if too many tax breaks are given, because there's a high energy consumption to keep all the equipment running, and they also say it needs a large amount of water to cool the equipment.
In short, if the project is installed in a city without infrastructure, it will increase costs for all residents, who will end up paying for the benefits given to the AI facility to be installed there, but it won't directly benefit the region, since it's a service provided globally, doesn't employ many people, and won't boost local commerce.
Considering all these details of AI's problems, and along with a CEO who is said to be difficult to deal with because he says something different to each person, we may be heading towards a future where AI is everything the industry promises, or towards a bubble, with these promises proving unattainable in the long term. The investment in this area was gigantic, perhaps even greater than that of the dot-com bubble, and at some point investors will question the financial return on their capital.


A Inteligência Artificial é um tópico que tem sido amplamente debatido, e como a OpenAI foi e acredito que ainda seja uma das empresas pioneiras nessa tecnologia, é normal que muitas das notícias, fofocas, novidades, vídeos e artigos sejam justamente sobre o ambiente que está entorno dessa que é uma das principais empresas de AI do planeta, responsável pelo ChatGPT, o maior chat de AI.
Talvez nem todos saibam, mas as Inteligências Artificiais de Chat BOT não são tão "inteligentes" como a mídia faz parecer com notícias de um futuro inimaginável, em que a IA vai dominar toda a cadeia de produção. É possível que aconteça? Pode ser, com o avanço tecnológico, essa é uma possibilidade real, mas vale mencionar que os chats de IA, como o ChatGPT, funcionam em um modelo de LLMs, conhecido como Large Language Models. Agora e os problemas da IA, você conhece? Confira alguns deles agora!
Fico agradecido se você puder dar um Voto, Reblogs ou algum Tips. Obrigado e boa leitura! 🍀
Esses modelos de LLMs buscam tentar prever qual será a próxima palavra na frase, com base em um treino com um grande volume de dados. Dessa forma, a forma como a máquina "responde" não é semelhante à forma de pensar humana, sendo que há alguns problemas com esse modelo. O primeiro que seria a necessidade de armazenar o contexto, não é por acaso que o preço das memórias RAM subiram tanto de preço, com o aumento do investimento em IA. As Inteligências Artificiais que guardam contexto, precisam de um local para armazenar as informações dialogadas previamente e para que o acesso seja rápido, eles utilizam as memórias RAM.
Além dessa questão dos data center necessitarem de equipamentos de ponto, algo que nem todos levam em consideração é o tempo de vida desses hardwares. Se por um lado existe um grande otimismo com relação ao código, de que o avanço será cada vez maior a cada nova versão lançada, por outro não se vê muita gente comentando sobre o gigantesco custo de degradação das peças, enquanto o serviço vai sendo oferecido de forma "barata" frente ao custo investido, sendo que uma hora essas peças terão que ser repostas ou a tecnologia vai avançar e algo melhor será criado, melhor do que rodar esses modelos em placas de vídeo e ram, para talvez um novo tipo de placa.
Avançando da tecnologia, mas ainda falando sobre os Data Centers alguns detalhes sobre ele podem ser bem problemáticos. Essas estruturas são geralmente bem tecnológicas e por mais que gerem um grande valor em tokens para uso da IA, não há muitos funcionários trabalhando já que é tudo bem automatizado. Com isso, não é um tipo de projeto que vai trazer muitos empregos para uma região. E além disso, ele pode acabar trazendo até um prejuízo se derem muitos benefícios fiscais, porque há um grande consumo de energia para manter todos os equipamentos funcionando e também dizem que precisa de uma grande quantidade de água para resfriar os equipamentos.
Simplificando, se o projeto se instalar em uma cidade sem estrutura, vai elevar o custo para todos os moradores, que vão acabar pagando pelos benefícios dados para o galpão de IA se instalar lá, mas não terá de forma direta um benefício para a região, já que é um serviço fornecido de forma global, não emprega muitas pessoas, e não vai girar o comércio da área.
Pensando em todos esses detalhes dos problemas da IA e junto de um CEO que dizem ser complicado de lidar por falar uma coisa diferente para cada pessoa, podemos estar caminhando para o futuro com a IA sendo tudo que está sendo prometido pela indústria, ou para uma bolha, com essas promessas se mostrando inalcançáveis a longo prazo. O investimento na área foi gigantesco, talvez maior do que o da bolha ponto com, e uma hora os investidores vão questionar o retorno financeiro do capital.




Posted Using INLEO
The hallucination problem is the one that keeps me up at night. It's not just that AI makes stuff up — it's that it does so confidently, in fluent prose, with plausible citations. For most casual users there's no visible signal that something is wrong.
The deeper issue is that LLMs are fundamentally pattern-completion engines, not truth-retrieval systems. They were trained to generate text that looks like text written by humans, not to verify claims against ground truth. That architectural choice is baked in.
I think the honest answer is that we're going to need a second layer of verification tooling before AI outputs are truly reliable for high-stakes tasks. Right now we're deploying the tech faster than we're building that layer.
The casual users would need to know the answer to verify is the output is right or wrong...