This episode covers a range of topics related to artificial intelligence (AI), including its impact on the future of work, the potential benefits of Neuralink for people with disabilities, and the use of AI in preventing homelessness and enhancing government efficiency. It also discusses the role of Big Tech in AI development, the economics of AI in terms of job creation and loss, and concludes with thoughts on how AI might lead to a more fulfilling human experience, inviting listeners to send questions for the next episode featuring AI representations of historical figures.
Guests: Brandon Corbin, Sean Hise, Jacob Wise, and Andre Harakas.
Topics Covered in this Episode:
The Future of Work with AI: Discussion on the impact of artificial general intelligence (AGI) on the job market and the potential for universal basic income. The panel explores whether AI advancements could lead to less work and more leisure time.
Relevant Quote: "It's a situation where, hey, a lot of things can be done automatically using AI...entire job roles can be automated out."
Neuralink and its Implications: Brandon Corbin explains what Neuralink is and its potential to help people with disabilities, such as blindness or paralysis, through bypassing damaged nerves.
Relevant Quote: "Once we can read and write [to the brain], we can bypass any problems."
AI for Good: A discussion on an experimental program in LA aimed at preventing homelessness through predictive analytics, and the role of AI in healthcare, preventive measures, and equitable resource allocation.
Relevant Quote: "We have data on people. We know what looks like people who are going to become homeless, and we can identify them with that data set and give them the help that they need, hopefully, before that happens."
The Role of Big Tech in AI Development: Questions around the ethics and consequences of Big Tech companies controlling AI advancements. The debate covers the consequences of AI used for profit versus AI for the collective good.
Relevant Quote: "For the last 10 years...all we've done is just build platforms that just get people addicted to them so we can sell ads on top of that."
Government Efficiency and AI: The idea of AI being used to make government operations more efficient. The potential for AI to improve service delivery while being mindful of economic considerations.
Relevant Quote: "The number one opportunity in the world right now is to make governments more efficient."
The Economics of AI: A look into the changing nature of the economy with AI, the potential creation and loss of jobs, consumer demand, and the alignment with economic incentives.
Relevant Quote: "By 2025, 85 million jobs could be replaced by AI...97 million jobs are going to be created."
Final Thoughts: The podcast wraps up with a broader discussion on AI's potential to usher in a golden age for humanity where there is more time for passions and family. The group touches on the need for society and individuals to adapt to AI-powered changes and the pivotal role of consumer demands in shaping AI's impact.
Contact Information: Listeners are invited to email questions to podcast@bigcheese.ai for the next episode, where the guests will be AI representations of historical figures.
And that's like a little bit of a truth bomb for some of us, because it's like, oh, I was kind of brought up that you work your butt off and you're going to be able to make it. But now it's a situation where, hey, a lot of the things can be done automatically using AI. With the advent of AGI, an entire job role can be automated out. You have ChadGBT thinking about this idea of the world coin, right, and this idea where once we have this AGI, can go out and literally just make a ton of money and it's distributed amongst people, right? So universal basic income. I ain't buying that. [MUSIC PLAYING] And welcome back to the Big Cheese AI podcast. I am Andre Herakles, the world's 24th best moderator, joined by Sean Hize and Jacob Wise, two tech leaders here in Indianapolis. And last but not least, Brandon Corbin, one of the brightest AI minds in the Midwest. Brightest as in color, not in actual intellectual capabilities. Not knowledge. He shines bright, and I'm Benjamin Button. If you don't understand the reference, go look at our YouTube comments. For this podcast, we're going to be diving into a bunch of different topics, ranging the gamut. But in general, we want to talk about how AI can actually be good and not always bad, potentially. We'll find out throughout the conversation. The first thing we want to talk about is something that's actually really scary. And Elon Musk made it. It's called Neuralink. He wants to drill holes in our heads. So Brandon, if you don't mind jumping into this really quick, that's where we'll start the episode. Yeah, so Neuralink is the idea that you basically have-- I think it's 1,000 strands that basically they drill a little hole in your head. Oh, I see this. This is called the matrix. Yeah, I get it, where they plug into the back. I know kung fu. And all of a sudden, right? But that basically there's 1,000 different fibers that go into your brain and are installed with a machine. So the big part of the business opportunity here for them is the machine itself, where they want to make it an outpatient experience that you can just go in, you sit underneath it, drills a little hole in your dome, sticks a bunch of needles or a bunch of whatever the hell those fingers are. Then they go into your brain, and they can read and write your neural noise, I guess. The greatest trick in the world is convincing yourself that it would be OK for Elon Musk to write to your brain. Yes. But conceptually, the idea being is that once we can read and write, we can bypass any problems. So if you're blind, you basically have a blockage between your optical nerves and getting to your brain. Well, there would be no reason why you couldn't have just now a normal pair of glasses that can write to the neural link that is now firing off whatever signals are-- Yeah, because you're not going to fix the optical nerve, but you could create another connection point. Exactly, and you can bypass it. So same thing with people who are paralyzed, that you could say, OK, well, yes, they might not have a spinal column communicating from their brain down to their muscles, but we could actually bypass that, and we can have a machine that they're wearing, and that they're just thinking of walking, and the machine can interpret that and make it happen. So they've done it in pigs. We've seen them do it in pigs, and they're reading and writing to the pigs' minds. What happened to the monkeys? The monkeys? Yeah. Yeah, the monkeys-- some of the monkeys might have died. Again, you're going to suffer a little bit as you're going through this process. Wait, I heard they killed themselves. Is that true or no? I don't actually know if they committed suicide. There's a whole lot of unproven stuff in this. Andre, please Google some things about monkeys and neural link right now. Like, all you need to think about, though, is that conceptually, it's a good idea, similar to the Hyperloop, right? Oh, the Hyperloop is awesome. The Hyperloop was a great idea, but now if you actually see what we have in Vegas, which is like a four-mile tube underneath Vegas that your Teslas can go 30 miles an hour underneath, and pretty much a long line, I'm not as-- What if we had a train, but it was one car at a time? [LAUGHTER] No, wait. So I don't know. He just wanted to dig holes. Yeah, we're just-- boring. Boring company. I got to admit, that's a great plan. Here's the data from-- this is cited from the internet, so I have no confirmation whether that's true. What website? Fortune.com. Oh, god. Take this with a grain of salt. But Google prompted it to the top of the screen, so that means it's true. The Physicians Committee for Responsible Medicine, an anti-animal group, obtained public records from UC Davis that says, showed 12 monkeys died after being implanted with Neuralink's device. Neuralink has since built its own facilities for monkeys in Fremont, California. So we don't know if it was the devices. They died. Inconclusive. Yeah, they did. It's inconclusive. Yeah. Yeah, that's a nothing burger. But I mean, hypothetically, with this technology, if it existed-- Hypothetically. Hypothetically, you could browse the internet in your head. Right? How cool would that be? Just sitting there, just being like, brr. I just want-- Zoned out. So there has to be a freemium version of it, so you're blind and they give you the ability to see. And then every five minutes, an ad pops up. And it's like, just paid upgrade. Remove this ad. You know that's what would happen, right? There's new ex-posts from Elon. No, there's going to-- It's not anti-Semitic, I swear. Yeah, there can absolutely be some revolutionary things coming out of Neuralink. But yeah, if you guys didn't know that was happening, super cool product that Elon has dumped a few hundred million dollars into, and so something to check out. But the other topic of conversation that we want to have is around the good part of AI and how it can positively impact potentially even people that are in poverty and homeless people. So Jacob, you were mentioning that there is something going on in California where there's some legislation being passed that AI can help people that are less privileged. Yeah, so it's in LA. And it's an experimental program that they're basically trying to identify people who are at risk of becoming homeless and intervene before that happens. So Sean was asking me at lunch today about how they're doing. And of course, I'm a headline reader. But the basic, the overview is we have data on people. We know what looks like people who are going to become homeless, and we can identify them with that data set and give them the help that they need, hopefully, before that happens. So just allocation of resources and a way to help people before that happens. Yeah, I think it's one of the strategic use cases of LLMs and AI in general is, especially in health care, preventative care, is in not treating the issue, but preventing the issue. Because everyone's got these big databases full of information that if they were harnessed correctly and were put through a large language model, they could assess and give good predictions of help people out before they end up in a really bad spot. You know, though, what's kind of weird is-- and I don't think AI has to do anything with this. But with the homelessness, specifically like in California and whatnot, is there just going to be encampments? Right now, there's encampments where they just take over, like underneath overpasses or whatever, and build these things up. Entire streets. But with tiny homes-- and there's this guy named Sean that I follow on TikTok. And his mission is literally, he just bought this huge plot of land in Arizona, and he just wants to build a bunch of tiny homes for the homeless people. Well, this goes directly back to what we talk about, the advancement of technology. You can 3D print homes. You can efficiently manufacture smaller living-- people are thinking outside of the box. And one thing we wanted to touch on on this was just people trying to solve problems that actually help the world. And AI is going to enable the advancement of those pieces quicker. But we have got to get beyond 2008, let's go build Fart Apps, Twitter, and Facebook, and Instagram, and start solving some real problems. Yeah, for the last 10 years, or 15 years, all we've done is just build platforms that just get people addicted to them so we can sell ads on top of that. It's beyond. And there's a lot of people that are really smart that quit Facebook six, seven, eight years ago. And go ahead. Yeah, I was just going to say, doesn't mean all the work has to be for naught, because Duolingo is one of my favorite apps. And what they're trying to do is leverage the lessons learned from how to get people addicted to things and get them re-engaging in it, but for learning. And we can use these lessons for-- What languages are you learning? I'm learning German. OK. Why? Because you-- [LAUGHTER] Cut to the tech. Cut to the eyes. Because he likes to tell jokes. Yeah, yeah, yeah. But the point was-- so they recognize that if you ask-- first of all, they did some funny stuff where they spent a lot of money trying to figure out when was the best time to ping someone to say, hey, don't forget to do your daily lesson. They have this idea of a streak, and it's all about gamification. But what they learned from all this research was the best time to tell someone to do their lesson was about the same time they did their lesson yesterday. So they spent a lot of money to find out. Send it to them whenever they did it yesterday. Humans are creatures of habit. They also-- weren't they the ones who, if you didn't respond after a certain period of time, they actually came back from a user experience standpoint? Yes. That's a good point. They have a whole mechanism that's like, after a few days, they're basically just like, all right, well, guess you're not interested anymore. Have a good one. And that psychologically triggers people to be like, well, shit, I do want to do this. So that brings people back. That's actually the only cold email sales tactic that works on me. Right? It's just, fine, you're a piece of shit. We're going to ignore you. Wait, wait, wait. You must be good. You're lost. We don't need you. My wife knows that trick, too. Fine. Scoff. Oh, I'm sorry. Well, this is actually a story that I heard of. And yeah, people have been studying addiction for a really long time. And these things have absolutely bled into every single social media-- TikTok, Facebook, Instagram, all these people. So here's a story. In Las Vegas, right outside the Strip, right outside the main city, there is an entire state-of-the-art casino that was invested in by OpenAI, that was invested in by all the big tech leaders. And it's specifically designed for people to come into it. There's cameras everywhere. Every single machine is monitored, specifically learning how to get people addicted. The biggest companies in the world invested in this facility and are specifically trying to learn how to get people addicted to things. And the question is, with AI, is there going to be a switch in that, Sean, where people aren't just focused on addiction all day? Let's just talk about it real quick. What was the only thing that really happened that really made a difference in this whole thing? And it's also the biggest risk and the biggest upside, is this OpenAI thing, right? They basically came out earlier this year and said, oh, we're a nonprofit. We've got this altruistic vision. We're going to limit our profit distributions. But there's this new tech that we discovered and we got freaked out, right? But we're going to do it the right way. And maybe that helped create a culture of, maybe we should be working on some stuff that actually helps the world, right? And stop building these addictive apps and build something that's actually going to change the world for the better. And guess what? Changing the world for the better also makes you money, right? Building new products and services is a highly profitable endeavor if people purchase them, if the government purchased them, if consumers purchase them. And so you're talking about a culture shift in how tech's built, hopefully. So we're trying to look on the bright side, right? We're trying. We're trying. It's hard. [LAUGHTER] But at the end of the day, a concept that we always talk about is, stop building stuff that's just getting kids addicted. Start building stuff that's going to help the blind, help the homeless. But unfortunately, it comes down to profits, right? And that's all that-- again, capitalism is not great, but it's the best thing that we have. And that it ultimately leads to, we need to make more money for our shareholders. But opening, I tried to break that, right? You tried to say, let's set up a system where our board and our investors aren't just looking for an exit. Right. We're going to cap them. We're going to cap them. And guess what happened? [LAUGHTER] The cap got moved. The board got fired to see-- The board got moved. Because why? All right. Because greed. Because greed. Well, you guys are right. Greed is always going to win out. Greed is good. Greed is good. Greed is good, I think. Until the 1987 crash and that movie's ratings went down. So the Apple AirPods, I think, is an example of something that is a good product that also can now be used for good, right? Because they're actually a hearing aid device. Oh, really? Yeah. So hearing aids are incredibly expensive. And I don't know if they're quite qualified yet. But if you turn them on-- What is it? Transparency. --transparency mode, it's basically-- it amplifies. And it can help people who are hard of hearing. That's where I think-- I don't know if this is where we'll go. But we need to start looking for when-- It's Apple tripping over itself and actually helping the world for the first time. They probably did that accidentally. [LAUGHTER] Just think about what they could have done with all the capital and resources. You mentioned the x-ray glasses, right? And that was for people with hearing impairments. But think about-- you pitched that to-- if I have these glasses on and I go to my networking event, and Jacob will tie on, and I say, hi, Mark, nice to meet you. But I don't remember Mark's fucking name. But it tells me his name and can remember that for later on. Like, oh, now I can be a more effective salesperson. And I can increase my productivity. And my numbers go up. Now business will buy that. You know what I mean? So can you position a product that does good, but also has a path to revenue as well? And I don't know. Maybe that's too altruistic. But that'd be cool. Yeah. Sometimes. The glasses are like, hey, you guys are-- you're connected on LinkedIn. Here's a bunch of different people that you have in common. You could absolutely see that glasses become kind of the next UI experience. Like with X-Ray, they actually-- they just built the software. And then they partner with a bunch of different glasses manufacturers. Right now, the glasses are pretty weak. So the one beef that a guy had-- this one guy on our Discord, he's like, first of all, I'm deaf. I'm ugly. And now you're making me look like I'm blind, too. Because you have to be sunglasses so you can actually read the subtitles. Right? Because the technology just isn't there to have them be bright enough that it can happen like on these glasses that are transparent, don't have the back blacking. See what happens when you try to help people. I know. And he's like, so I just use it on my phone. But nevertheless, you can see that the glasses-- and Google Glasses kind of was-- they sold that early on. And while it didn't happen, I think we'll eventually get to a point where we're just wearing glasses like these. And I'm having a bunch of overlays. I'm having a bunch of interactions. I'm getting a lot of additional context that's happening with my-- What you guys are talking about is implementing stuff when there's no economic demand for it. So if there's no economic demand for helping the world get better, then you have to force it. That's where the government comes into play. Right? You know what I mean? So what you're saying-- but what happened after-- I mean, I lived through it. Jacob and I got out of college in 2008. And there was no jobs. And so people kind of said, well, screw capitalism. I'm going to go brew beer. Let me come and total-- I'm going to stop cutting my hair. I don't even shower anymore. I never lived that life. But my point is they stopped caring about making money. But they started doing cool things, right? Being more organic, living a more healthier lifestyle. We're going to go hiking instead of doing some, I don't know, bro task that's-- I don't know. My point is that you have to change the culture a little bit. And I think that kind of is happening. That's the thing I see in the education system is the kids are starting to see-- they're living through this from the ground up. Don't underestimate kids. Don't underestimate the next generation. They're the future, man. Right, because they lived through this from the beginning. And guess what they've had in their hands since they got to first grade? A device that has access to Google. My daughter was telling me all kinds of stuff about World War II and why Germany invaded Poland and what happened. And I was like, how do you know all this? She was like, I just looked it up on the internet and started researching. I'm very interested. And my point is if there's economic demand for good, then guess what? There will be products and services that are built to service that good. And so it really comes down to people's wants, wishes, and their demand. Because otherwise, it's just forced from the government. It's going to kind of be-- it's not going to work. But we have this big problem now, which is we don't know. We don't have a direction. I think Sam Altman, Mr. God of AI, set this direction. And it's starting to completely fall apart in terms of where that company's really headed. No one knows. But it's got to come from other people. It can't just come from them. The implementations of all these technologies have to respond to market demand, because that's how the system works. Market demand comes from the consumer. And we were talking about this a little bit earlier for the podcast on these big companies, Google, are potentially sowing their own demise when it comes to getting, you think, platforms like Gemini that are coming out. We're getting very close, potentially. Brandon, I'm curious on your thoughts as well, when it comes to AGI. And with the advent of AGI, you have this huge revolution of over-optimizing capitalism for these one individual groups. And all of a sudden, the only thing that really ever matters now is the consumer and what the individual person wants. From an AGI standpoint, I think if OpenAI is going to come up with some new model, it's going to be AGI. It's able to do virtually anything that you can set a human to do. For those who don't know, that's basically the definition AGI. It's on par with human capabilities. If not more, like smarter. If they're going to expose that, then I view it just as another extension of what they currently offer. Now I can basically have this worker who works for 2��ℎ������ℎ�������ℎ�����������′����������,�������ℎ���ℎ�����ℎ�����������ℎ������.���ℎ�′�����������������������ℎ������������������.���������ℎ��−−�����ℎ������������������,�������������������������������.�������������ℎ���������������ℎ���.�����ℎ����ℎ���ℎ��′��ℎ���,�����,�ℎ��������ℎ���������������,�ℎ��������ℎ�����������������ℎ�������,�ℎ��′������������������������ℎ��′���������������,�′������������ℎ��������������������������ℎ�������,�,����,�����′�����������������ℎ�����.����′��ℎ����ℎ��������,�����ℎ�������ℎ�����,������������������ℎ������������.�ℎ���������′�.������′�.������′������ℎ������������.���ℎ��′��ℎ�������������ℎ����ℎ�������ℎ����ℎ���������.�����������������ℎ���������������������ℎ���������������������ℎ�����������.��������������������������������������������.����������������,ℎ��,��ℎ������ℎ����������ℎ���.����′�ℎ�������������������������������ℎ���.������������������������������������������,�ℎ��������−−�ℎ������������.−−�ℎ���ℎ����′����ℎ�������������′�ℎ����ℎ���������������������������.���������������ℎ��.�ℎ��′��ℎ��������.��������ℎ���������ℎ�����ℎ���������?������������ℎ�������,ℎ��,����,��������.�������������ℎ���ℎ���,�ℎ��������ℎ��������������ℎ��ℎ���,�ℎ����������.��������ℎ������������ℎ��������,�ℎ����ℎ���ℎ��.�ℎ��������.�������������ℎ������������������������ℎ����������′��������ℎ�������������.����������ℎ������,�������������.����ℎ�������,ℎ��,����,��������ℎ������.�ℎ,�����′�����������.���ℎ.����′��������������.�ℎ����������������ℎ������������������������������ℎ,��������′����������.���������′����������������ℎ�������,�ℎ�����′��������ℎ�����.����′��������,�ℎ,����,�������ℎ�����������−−ℎ�����������−−�ℎ��ℎ����������������.�����������������������������������?���������′������ℎ����ℎ������,�����������ℎ����ℎ��′�������ℎ����.������′�����,�ℎ.�����������.����′�����,ℎ��,����,ℎ����������������������������������?�����������,��′�����������,�′������.����′����ℎ��������.������������������ℎ���,�′�����������������.����������ℎ�����������������ℎ���������ℎ���������������������ℎ��������������������.��ℎ������ℎ�����������������ℎ��������������,���ℎ�′������ℎ�������������������.��′�������������ℎ��������ℎ��.��′��������������.��′������.����ℎ���′����������ℎ������′�.�ℎ��′�����������−�������������.���������′�����������,���′�.���′�.����.������������������ℎ���.����ℎ�������−−��������ℎ�����������.����ℎ�ℎ�������ℎ��������������ℎ����.�ℎ�′�����,�ℎ������ℎ������������������ℎℎ��.�ℎ����ℎ�����������ℎ�������.����′����������������������ℎ����.������������������′���������.���ℎ�����������������������������������ℎ����������ℎ����ℎ������′���������������ℎ���ℎ���������,�ℎ��ℎ���,�ℎ�����,�����������������ℎ����ℎ��′�������������′������������ℎ������.�����������ℎ�������������.����,��,������ℎ����ℎ�ℎ�����������,��,�ℎ����������������������ℎ���3 trillion, 5��������,6 trillion, 8������������������.����ℎ��′�����������������ℎ������������.����,�ℎ���������������′�������������ℎ���ℎ����������������������−−������ℎ�������.�����,�ℎ��′�����������������������������ℎ��ℎ���������������������������.������ℎ�������ℎ����,�ℎ��������������ℎ�����������������������������.������ℎ�������������,���������������,��′����������������������������������.�ℎ����������������������������������������������,�ℎ������������������.���������′����ℎ�����.��������������������������������������.�ℎ�������������������.�������������������������������,������′���������������������������������������������������ℎ���������������������.�������������������������.����ℎ�����������′�����.���ℎ���′�������������������������������ℎ������′�������������������������.���′�������������������������������.�′�������������������ℎ��.�′����������������ℎ��������.�������������,��ℎ����ℎ������ℎ����������������������������������������������ℎ���������ℎ����������������������ℎ���������������������������������ℎ�����ℎ��������������������������������,�������ℎ���������������.���������,��′����������������ℎ������ℎ��������ℎ����������ℎ�������ℎ���.���ℎ,����ℎ����ℎ��,��������,������������ℎ��������������ℎ���������������−−������ℎ����ℎ�����������−−��′��ℎ����������������������ℎ����ℎ������������������������.�����������������������ℎ���ℎ�������ℎ�����������������.���������������,�������������������������ℎ���ℎ�����������ℎ��������������ℎ��.��ℎ��������,�ℎ������������,�ℎ������������,�����ℎ�������������������������������������.��′�����ℎ��������������ℎ�����������.����ℎ��ℎ�����ℎ���������ℎ�����ℎ���,����������.�������,�ℎ,�ℎ��′�������.����ℎ�����������ℎ����ℎ��ℎ�ℎ�����′������������ℎ��.�������ℎ������������������������������������������������.��ℎ��������,�����ℎ���������������������������������.�����������′���������������ℎ��������������������������������������.����������������������������−−���������������������������������ℎ.�������������������,�������������.��ℎ�����′����������������ℎ�����′���������ℎ���������������ℎ���������ℎ����������,ℎ���������������,ℎ������ℎ�������������������ℎ����������ℎ����,���������������������ℎ��������������������������ℎ�����10,15,���������,�ℎ������������′����������������ℎ.����ℎ��′������������������ℎ���������������.���������′�����,�ℎ,���������������ℎ����ℎ��������������������������′�����������������������.������,��′������������ℎ���,ℎ��,�������ℎ��ℎ���������������������������������.���ℎ�ℎ������������,��������������������������������.���ℎ����ℎ������ℎ������������ℎ���������ℎ����������,���ℎ�?����ℎ�������ℎ���������ℎ����ℎ�����,�����������������������������������������.�����′�������������������������,���ℎ�?����������������������.����′��������ℎ��.��������ℎ�������?��������.�ℎ���′������������ℎ����ℎ����������������ℎ���������20ℎ������������ℎ������.����������������.��������������������������ℎ����������.������������������������������.����������������������������������ℎ�����������ℎ����������ℎ����������ℎ�������������������,�������ℎ���ℎ���������������,�������ℎ��������������������������������ℎ��ℎ�������������������������������������������,����ℎ��′��������ℎ������������ℎ���������ℎ��.���������ℎ��ℎ������������ℎ�������.�ℎ�����ℎ���������������������������ℎ������������������������ℎ����������ℎ������������������������������������������������ℎ�������.����ℎ��������������ℎ������������������ℎ�����.����ℎ��������������ℎ�ℎ������������ℎ���ℎ�������������������������������������ℎ��������.���������������ℎ��������.����������ℎ����������������������������������.������������ℎ��������?�ℎ��′��ℎ���������.����������ℎ�������������������ℎ?����ℎ����������ℎ����������′�����−−����′��ℎ����ℎ�������−−�������������������������ℎ����,��������������ℎ������������ℎ���������ℎ����′���������������������ℎ�����������ℎ��������,����ℎ���������������ℎ��������������.����′�������������������ℎ����,���������������ℎ����,�����������10�������.����ℎ��ℎ�������?�����������ℎ������������?�′��������������������−−�ℎ���′��������ℎ������������������ℎ���������,����,���������������30�����������������.���′�������������������−−�ℎ�������′������������������.�������������′�.�����ℎ����ℎ����′�����−−�����������������������������ℎ����.������ℎ��′�����ℎ�,����ℎ��′���������������������ℎ���ℎ����������������ℎ�����.�ℎ���ℎ�����ℎ��′�����������������ℎ�������������������ℎ������.����.���ℎ�?���ℎ.���ℎ�?����ℎ��ℎ���′�����������?�ℎ��ℎ���′�����������?����′�����.��ℎ����ℎ���ℎ��′����������−−���′�����������������.������������������������ℎ,���.��ℎ����ℎ��′��ℎ����′���������������������,���ℎ,������ℎ���������������������.�����′��������������−−�ℎ��ℎ����′������������������������������������������������ℎ����,������������ℎ�������������,�������ℎ��.�������������,���ℎ,�ℎ���′��ℎ�����������������ℎ����ℎ��′������,���ℎ,��′���������������������′����������������������ℎ���,���������ℎ�������−−�������������ℎ����ℎ������.������.��ℎ.��′�����������������ℎ�������ℎ��−−�����������ℎ�������������.�ℎ�����������,�ℎ������������,�������ℎ����������ℎ�����������������.�ℎ�����������������ℎ����ℎ����ℎ������������������,������,����������.����������������ℎ���������ℎ��ℎ������������������.���ℎ���������.����������ℎ�������������ℎ����ℎ����ℎ���������������������,���ℎ�����������������ℎ�����������������������������������������������������������.���ℎ������,��������������−−����������������������.����ℎ�����ℎ����������������������.����ℎ��′��ℎ������ℎ����ℎ��.���,���′������������ℎ�����������.�ℎ���′���������������ℎ��ℎ����������������,����ℎ��′������−−�ℎ��′���ℎ���������������ℎ�������������.�ℎ��′������2019,2020.�����������ℎ�������ℎ��������,���������������.����ℎ���′��������ℎ���������2020.�ℎ���′�����ℎ���������2019.����′�����������������ℎ����′�������.������������,�ℎ�������ℎ����2025,85������������������������������.�������?���ℎ������,85������������������������������.������������,��������,������������ℎ,97������������������������������.���ℎ.���ℎ.�������,��′�����������ℎ�������ℎ����′�������������.��′��ℎ��������.�ℎ���′���������������ℎ���.�����������������.��������′�������������ℎ�′����������������ℎ����,���′�����������.��ℎ����ℎ���ℎ��′�−−���������������������,������������,�����������ℎ����.�ℎ���′��������ℎ�����′��������������ℎ�����′�ℎ���������.�ℎ���′����������������������ℎ���.������ℎ�������ℎ����,��′�����.����,�����′���������������������ℎ�97�������������′�����ℎ�85,���′����������������������������ℎ�97.�������97�����85��12����������������.������ℎ�.���ℎ�?������ℎ���85�����������,ℎ���������ℎ���85�����������������������������ℎ�97?����ℎ���������������������������?���ℎ�?�������,��������ℎ���ℎ�����′��������������ℎ�����′�ℎ�������������.����������,�ℎ���′���������ℎ�������ℎ��,�������������,������′��������ℎ���������,����′�ℎ������������.��,�ℎ��′�����.�������,�ℎ�����������ℎ����.���ℎ,���ℎ,���ℎ.����,����.���ℎ�?���ℎ�.����ℎ��′�−−���ℎ�.�ℎ����ℎ��′��������������ℎ����������������ℎ����������.���ℎ,�ℎ��′�����ℎ���������������.����,����,�����������������������ℎ�����������ℎ���������ℎ������,���−−��,��.���ℎ�����������ℎ�����ℎ��������.�ℎ�������.�ℎ�������.������������,�����ℎ��,���ℎ�,�ℎ�′����80�����������������,ℎ���������ℎ���,ℎ�′����,���ℎ�,������������������ℎ�����.���ℎ�′�����,�ℎ�����ℎ�����������������������.��′�����,�����ℎ��������.����′�����−−�ℎ������������������������.�ℎ����������ℎ������������������������������.�ℎ��������������������ℎ����������.����ℎ����83���������ℎ���ℎ�����.�ℎ��������−−�ℎ�������2013.����ℎ����������������ℎ������2000�.�ℎ�����������.�ℎ�ℎ��ℎ����������������.�ℎ�ℎ��ℎ������������.�ℎ�������������.����ℎ������������ℎ�����������ℎ�������ℎ���ℎ������.��������′������′�����������.�����ℎ���′�����������������ℎ���−−���������97�����85��12.�ℎ���′����������ℎ��85�������.���������ℎ��������������������������ℎ�����������ℎ�85�������.���ℎ.���ℎ�?����������.������������ℎ�85−−�ℎ�������ℎ���������������ℎ��,���ℎ���′��ℎ�����������,�ℎ��ℎ����������������������������−−����ℎ��′�����������ℎ������.�ℎ,����.�����������ℎ.����ℎ���′����������������ℎ����������ℎ�����ℎ�−−���������������′�����,�ℎ��!���ℎ.������′���ℎ�����.��′����������ℎ���,���ℎ�?���ℎ.�ℎ�������������������������ℎ��������������������������������������ℎ���������ℎ���������������.�ℎ��′���������ℎ���.���ℎ���������������.��′�����ℎ���������������������������ℎ�����������������������������������������.�ℎ�����ℎ�����?�����′�����.�ℎ����������.��������ℎ�����������������������������������.�′������������������.���ℎ.�ℎ��′������ℎ���.������ℎ�������ℎ����,����������������������������ℎ����������,�ℎ��ℎ�������,�����������������������′���������.����ℎ��������ℎ�������,����������������������ℎ������ℎ��ℎ������������������������.����ℎ��′����������ℎ�������ℎ��������������������������.����,��������������′�ℎ��������������.�ℎ��������������′�ℎ�����������������.������������,�ℎ������′���������.������������ℎ����������������������������������.�′�����,����,���ℎ.�ℎ����������������.�ℎ������������������������ℎ���������ℎ������������������������������������.�����ℎ���������ℎ���������ℎ�������ℎ���′������ℎ��������,����������ℎ���������������������������������.����ℎ���������������′��������������.������ℎ����������������ℎ������������������������������������������������ℎ���−−������.−−�ℎ���������������,����������.��ℎ���′��ℎ��������������ℎ��.���������������,������������������������������.���������.����������������������������,��������ℎ��′��ℎ�����������������������������������������,��ℎ����ℎ���ℎ���������������������������������������ℎ��������������,��������ℎ��′��ℎ���������.���������������ℎ�������,����ℎ�������ℎ�����ℎ��ℎ����������������.���ℎ��������,�������������������ℎ������.��!��������������������ℎ���.�����������������ℎ��������.��������������������������30�������.[��������]������ℎ,��������������,���.���′������ℎ�����������������.���′���������������������������������������.����ℎ��′���������−−�ℎ����′�����������������������,�ℎ�������ℎ��������ℎ��������������������������������������.������ℎ������������������������ℎ����ℎ�������������������������������ℎ���������������,��ℎ���ℎ�����������������������.�ℎ��′������.����ℎ�����������.�ℎ�����������.����ℎ��′��������ℎ����������.����ℎ�������′������ℎ��′�����.��′����������������������ℎ��,��������ℎ��′����������.�����������������������������,�′����������′�������.�������������′������������������������������.��′���������������������.����′�������,������ℎ�����������������������������.�ℎ�����′�.����������������.����������������.�����ℎ���������������������������.�����ℎ����������������������ℎ�������.���,�����������.�����������.���������������ℎ���������������������������������������.��������ℎ�������?�����′������������−−�����′��������,��,���′�������������������′�−−������������′��������������.��′�������������������������������������.����ℎ���������������������������������������������������.���ℎ��′������������ℎ�ℎ���������.����������������������������ℎ�������������,����������������ℎ��������������������������������������������ℎ���������ℎ�����ℎ��������������?�������������������������ℎ��′�����������ℎ���������?�����������������������������������?���ℎ�����′������������������.�����������������,������������������.����′�������������������������������,��������ℎ����′������������,�ℎ����′�−−�����,�ℎ�����������′������������ℎ����������������−−�ℎ�������������������������ℎ������ℎ��������������������������.������′���������������������.����,������ℎ������������−−�ℎ��������������������.�ℎ��′�������������������ℎ����������ℎ���������������������.������.�����������ℎ������ℎ������������������−−��������������������������������������.����ℎ�������������ℎ����′����������,��′�������������ℎ����ℎ����′�����������������������.[��������]��′�������������.��������������������−−����,�ℎ���′��������������������ℎ��������������ℎ����ℎ��������ℎ����������������������ℎ��.���ℎ.�ℎ���������ℎ�������������������������ℎ�������.�ℎ�����.����ℎ�ℎ�������ℎ�����ℎ��?���������������������ℎ�������.����ℎ��������,��′�����.��′���������.����ℎ,���ℎ����,���′������������������������������������������������������������ℎ���������.���′���������������������������.�����,���������.��������������,�������?��ℎ����ℎ���������������ℎ���ℎ����ℎ�������ℎ���������������ℎ�������.�ℎ���������������ℎ�������,�ℎ������ℎ��������������ℎ������������������ℎ���ℎ������������,���������,������−−�ℎ������.�������������������������������ℎ�������������.�ℎ���������−−�ℎ���������ℎ������������������ℎ���������������������ℎ������ℎ�������.�ℎ��������������������ℎ�����������ℎ�������������ℎ��������������������.������������������������������������������������,������,���ℎ��.�ℎ����������,�ℎ,������,��ℎ,��ℎ,��ℎ.�ℎ���ℎ������ℎ�������������������������ℎ������������������ℎ���������������ℎ���ℎ����������−−���′��ℎ���������������?���ℎ.���ℎ,���ℎ,���ℎ.�ℎ������ℎ��ℎ��.����ℎ�ℎ���������������������?�����,���ℎ�?�ℎ��′��ℎ����.�����,�ℎ��′��−−���′������������ℎ�������,�ℎ���ℎ.���′�����������−−�����ℎ����������ℎ�������.���′��������������������ℎ����ℎ����������������������−−�����,�������ℎ�ℎ����������������ℎ���ℎ��′����������ℎ����������������,�ℎ��′������������������ℎ��������������������������������.���′�������ℎ�������.���������������ℎ��������.������������������������������ℎ�����98. How much is it? Oh, that would be in the $300s. No shit. OK. Yeah. Well, everybody, this is us at the Big Cheese Podcast. Sometimes we're so grateful that you guys join us along our conversation as we talk through the different evolutions of AI. I'm Andre Herakles, joined by Sean Heisz, Jacob Wise, and Brandon Corbin. We will be having guests join us on episode number 10. And they will more than likely be AI guests. We did find the one. What was it? History-- History.ai? History.ai or something like that, where we can talk to George Washington. And-- That would be George Washington. George Washington. Why don't you tell us about your-- We'll be talking to George Washington as well. If you guys would like to ask us any specific questions, email podcast@bigcheese.ai. Thank you so much.